中文字幕日韩一区二区不卡,亚洲av永久无码精品天堂动漫,亚洲av无码国产精品麻豆天美,最新版天堂中文在线,中文字幕视频在线看

a&s專業(yè)的自動化&安全生態(tài)服務(wù)平臺
公眾號
安全自動化

安全自動化

安防知識網(wǎng)

安防知識網(wǎng)

手機站
手機站

手機站

大安防供需平臺
大安防供需平臺

大安防供需平臺

資訊頻道橫幅A1
首頁 > 資訊 > 正文

人工智能與虛擬現(xiàn)實將帶來怎樣的倫理困境?

新技術(shù)的發(fā)明常常會令人振奮,一旦普及卻可能造成許多恐慌。生活在這個時代,一個切身的體會便是:技術(shù)改變我們的生活方式,也改變了千萬人的職業(yè)選擇。
資訊頻道文章B

  新技術(shù)的發(fā)明常常會令人振奮,一旦普及卻可能造成許多恐慌。生活在這個時代,一個切身的體會便是:技術(shù)改變我們的生活方式,也改變了千萬人的職業(yè)選擇。打車軟件的應(yīng)用近乎消滅了出租車行業(yè)大半,移動互聯(lián)網(wǎng)與智能手機的聯(lián)合,更是重構(gòu)了無數(shù)傳統(tǒng)的行業(yè)。近期,就在國家統(tǒng)計局公布8月CPI數(shù)據(jù)的第一時間,騰訊自動化新聞寫作機器人Dream w riter(夢幻寫手)寫出新聞稿的消息爆炸開來,迅速成為傳媒界議論的焦點。記者圈開始出現(xiàn)焦慮性的爭論——— 到底我們何時會失業(yè)?

  往前推兩天,即9月8日,“2015百度世界大會”可謂萬眾矚目。百度創(chuàng)始人李彥宏宣布推出百度智能機器人助手“度秘”,豪言要讓每一個人用得起秘書。未來,記者轉(zhuǎn)秘書的夢想恐怕要破滅了。再早一些,微軟第三代人工智能機器人“小冰”也殺回微信,自稱17歲陪人聊天是其強項。而馬云提到的軟銀已經(jīng)正在批量生產(chǎn)投向市場的情感機器人“pepper”,因為價格只有1萬出頭,可能將我們直接帶進了“機器人進入普通人家”的時代。

  如果將目光轉(zhuǎn)向更大范圍,全球性的互聯(lián)網(wǎng)巨頭如谷歌、蘋果、Facebook,以及國內(nèi)聲名鵲起的科大訊飛、大疆科技甚至華大基因,都在向充滿奧秘但商業(yè)價值龐大的“人工智能”領(lǐng)域邁進。一夜之間,人工智能似乎變成了互聯(lián)網(wǎng)+之后更為火爆的概念。誰不涉及人工智能,誰似乎就要被掃入歷史的垃圾堆。

  時下,輿論對于人工智能充斥著誤解,以及自我矛盾的兩極化預(yù)言。主流的商業(yè)性報道、評論或演講,更多看重的是這一市場的龐大、利潤的可觀,他們通過描繪人工智能時代生活的無限便利,來進行產(chǎn)品的推廣抑或機構(gòu)的融資。另一種帶有演繹色彩的文學(xué)、科幻作品,則更樂意將人工智能的結(jié)局想象成人與智能機器人之間的對立、沖突乃至戰(zhàn)爭。

  對商業(yè)價值的極度崇拜,對倫理崩塌的深度隱憂,構(gòu)成了兩種重要的論調(diào)。在筆者看來,商業(yè)價值的狂飆突進是大勢所趨,倫理隱憂的討論卻存在種種誤區(qū)?;诖耍疚拇蛩銜呵覕R置對人工智能商業(yè)價值的探討,而主要聚焦我們所關(guān)心的另一個話題:人工智能將帶來怎樣的倫理困境?

  強人工智能vs弱人工智能

  人工智能很火爆,但它的定義到底是什么。查閱百度百科,定義如下:人工智能(A rtificialIntelligence),英文縮寫為A I。它是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。研究的目標是,機器視、聽、觸、感覺及思維方式對人的模擬,包括指紋識別,人臉識別,視網(wǎng)膜識別,虹膜識別,掌紋識別,專家系統(tǒng),智能搜索,定理證明,邏輯推理,博弈,信息感應(yīng)與辨證處理等等。

  任何一個領(lǐng)域,必然存在著多個流派,人工智能領(lǐng)域也不例外。目前,最重要的三大流派如下:第一派是符號主義,或稱計算機學(xué)派,其原理主要為物理符號系統(tǒng)假設(shè)和有限合理性原理。說白了,就是相信計算機的運算能力疊加,將會最終幫助機器獲得自由意志。第二派是聯(lián)結(jié)主義,又稱為仿生學(xué)派,其原理主要為神經(jīng)網(wǎng)絡(luò)及神經(jīng)網(wǎng)絡(luò)間的連接機制與學(xué)習(xí)算法。簡言之,他們相信模仿人類大腦的構(gòu)成,可以制造一個相同的大腦。第三種是行為主義,又稱進化主義或控制論學(xué)派,其原理為控制論及感知-動作型控制系統(tǒng)。這一派認為智能不需要知識、表示和推理,通過在現(xiàn)實環(huán)境中交互,智能行為會逐步得到進化。

  上述三種研究進路,當(dāng)然只是一部分,雖然很主流,但在這個充滿奇思妙想的人類世界里,相信還有很多怪異的研究方法,到底哪一條路才能研制出真正的“智能人”,即擁有人類思維的機器人,在事情發(fā)生之前,沒有人會知道。

  人工智能學(xué)科的起源,普遍被認為是1956年在美國達特茅斯大學(xué)召開的一次會議。后來,被稱為“人工智能之父”的約翰·麥卡錫博士在那次會議上首次提出了人工智能的概念,他認為:人工智能就是要讓機器的行為看起來就像是人所表現(xiàn)出的智能行為一樣。不過,這個定義不夠精準。目前,對人工智能的定義大多被劃分為四類,即機器“像人一樣思考”、“像人一樣行動”、“理性地思考”和“理性地行動”。這里“行動”應(yīng)廣義地理解為采取行動,或制定行動的決策,而不是肢體動作。

  由此,也誕生了“強人工智能”和“弱人工智能”的區(qū)分,即機器的思考和推理就像人的思維完全一樣,就是強人工智能,而如果機器只是部分擁有人的思維、推理、情感、行動能力,就算是弱人工智能。我們前面提到的騰訊的“夢幻寫手”、百度的“度秘”、微軟的“小冰”、軟銀“pep-per”以及蘋果iO S系統(tǒng)的“siri”,都只是在思維上部分擁有人類的推理、情感或其他能力,所以都屬于弱人工智能。目前流行的智能家具、智能汽車、無人機、智能手機,也都是弱人工智能的體現(xiàn)。

  人工智能的倫理陷阱

  接續(xù)上文的論述,所以,倫理的討論也分為強人工智能和弱人工智能兩部分。

  首先,按照強人工智能的定義,我們可以得出該機器人獲得了人類完全的思維能力,他(暫且用“他”)擁有我們相同的思維、情感、創(chuàng)造力乃至不可預(yù)測性。那么,問題來了,他到底是機器人還是我們所認為的人類?

  疑問1:他身體構(gòu)成的材料與我們完全不一樣,也許是硅膠,或者是別的東西,總之不是我們這樣的血肉之軀。那么,他還是人類嗎?

  回答:關(guān)于人的定義,核心在于身體還是具備人的思維意識,這一點需要考慮清楚。安裝假肢的殘障人士也有非血肉材料,只是比例較小。然而,伴隨3D打印器官的投入使用,人體越來越多的部分都可能不是血肉之軀,但我們不會認為他們就不是人類范疇了。所以,只要思維一致或者更加抽象地說,擁有自由意志,那么不管他是什么做的,就已經(jīng)屬于人類范疇了。

  疑問2:他并非人類繁衍的產(chǎn)物,他沒有生理學(xué)意義上的父母,更像是一個怪物,所以還是人類嗎?

  回答:試管嬰兒在今天已經(jīng)非常普遍,克隆如果不被禁止,克隆出的產(chǎn)物也會被認為是人類,正如“多利”不會被認為不是羊。未來,人工智能無論通過什么方法,如果最終能夠制造出具有人類思維的機器人,那么應(yīng)該賦予其基本的“人權(quán)”,承認其人類的身份。

  所以,在是否該賦予強人工智能制造的機器人“人權(quán)”這一點上,不該存有疑慮。既然承認他是“人類的成員”,那么人類現(xiàn)有的價值判斷原則就沒有遭受沖擊的可能,因為我們只需要用人的方式對待他即可。無故傷人也好,破壞公共秩序也罷,之前如何對待人類,現(xiàn)在也就照樣對待。

  當(dāng)然,對于社會關(guān)系,例如家庭組織、親屬關(guān)系的沖擊是顯而易見的,但這并不影響整個世界最基本的制度規(guī)范。千百年來,婚戀的變遷、審美的流變,都差距奇大,但這些變化也都在歷史長河中被“合理化”。也許就像50年前的人無法想象如今極為普遍的婚前性行為或同性戀合法化一樣,今天的我們也無法去設(shè)想智能機器人加入我們之后產(chǎn)生的變化會如何消除爭議。

  所以,強人工智能的機器,并非新的物種,他就是歸屬于人類,他帶來的倫理沖擊并不能上升到宏觀價值。況且,我們距離強人工智能時代還很遙遠,關(guān)于倫理,弱人工智能反而更加值得討論。

  弱人工智能的倫理問題存在已久,討論最典型的即無人轟炸機的倫理問題。一個自動轟炸的機器人,成為了戰(zhàn)爭的幫兇,萬一失控,造成對平民的傷害如何界定。對此,我們需要明白,人類從制造勞動工具和武器開始,工具就已經(jīng)變成了自己的延伸。工具本身的智能水平有限,并不能擁有完全的自主性,所以無人機無論造成什么后果,責(zé)任主體依舊沒有變,就是控制機器人的人。由此可以推出,智能汽車失控,或者智能導(dǎo)航帶你進湖,這些都屬于擁有明確責(zé)任主體的機器。

  其次,則是隱私問題。每一個智能機器人(設(shè)備)都是一個收集數(shù)據(jù)的終端,無數(shù)數(shù)據(jù)的匯集最終可能出現(xiàn)有價值的商業(yè)模式,前提之一必然是個人隱私的被販賣。對于隱私的邊界,人們并非不可接受,但是要認同讓渡的隱私權(quán)和獲得的便利比是有價值的。目前來看,大數(shù)據(jù)產(chǎn)生的隱私濫用問題已經(jīng)非常嚴重,斯諾登的出現(xiàn)表明企業(yè)和政府形成了“同謀”,鐵幕遍地,并非危言聳聽。

  人類數(shù)千年的文明史,倫理體系混亂不堪,至今我們也沒有一個統(tǒng)一的、標準的、明確的倫理體系,而僅有一些大部分人承認的大體的原則而已。對于人工智能帶來的倫理沖擊,更多的聚集在一些較為規(guī)則性的領(lǐng)域,從人類自身的發(fā)展歷程來說,可以稱其為無關(guān)宏旨。即使是政治監(jiān)控的問題,這也并非人工智能獨創(chuàng)的,秘密警察、告密制度早已有之。人類社會存在的陰暗面,不能簡單嫁禍智能機器人,無論他是否真正具備人類的思維方式。

  人工無智能:虛擬現(xiàn)實

  本文的主題是討論人工智能時代的倫理問題,從上文可以得知,強弱的人工智能時代,或許會存在一些具體領(lǐng)域法律規(guī)則或社會規(guī)范的調(diào)適,但不會引起大規(guī)模、根本性的倫理困境。似乎到了這里,關(guān)于倫理與人工智能的討論就可以告一段落了。但正如許多人所秉持的“誤區(qū)”一樣,人們把人工智能等同于高科技發(fā)展,把技術(shù)與倫理的關(guān)系直接套用在人工智能與世界倫理的關(guān)系上。

  這樣的憂心多少有些歪打正著,我們早已邁入弱人工智能時代,強人工智能時代又并未出現(xiàn)明顯跡象,但我們卻忽略了虛擬現(xiàn)實(V irtual R eal-ity,簡稱V R )馬上降臨的基本事實。而這一同樣充滿著高科技色彩,并且被很多人誤以為是人工智能領(lǐng)域的技術(shù),將很可能帶來一系列新型倫理陷阱。

  在討論虛擬現(xiàn)實技術(shù)可能帶來的倫理沖擊之前,先列出虛擬現(xiàn)實的學(xué)術(shù)定義:是一種可以創(chuàng)建和體驗虛擬世界的計算機仿真系統(tǒng),它利用計算機生成一種模擬環(huán)境,形成一種多源信息融合的交互式的三維動態(tài)視景和實體行為的系統(tǒng)仿真,使得用戶沉浸到該環(huán)境中。補充一點,虛擬技術(shù)不是人工智能技術(shù),因為沒有賦予頭盔、眼鏡或者其他物件智能思維,看起來,它更像是一個工具———盡管我們在后面的分析中會發(fā)現(xiàn)這一判斷同樣充滿爭議。

  2014年3月,F(xiàn)acebook宣布以20億美元收購沉浸式虛擬現(xiàn)實技術(shù)公司Oculus V R。虛擬技術(shù)數(shù)十年的發(fā)展歷史,亦是幾經(jīng)沉浮,但時至今日,虛擬技術(shù)引發(fā)的關(guān)注可能帶來質(zhì)的突破。在美國《時代周刊》2015年8月的封面文章中,我們看到虛擬現(xiàn)實已經(jīng)是硅谷最熱的事物,索尼、三星、H T C都卷入了這一輪由Facebook收購Oculus引發(fā)的熱潮。

  目前,虛擬現(xiàn)實技術(shù)需要解決的問題是可穿戴設(shè)備的便捷性以及價格上的居高不下兩點。一旦商業(yè)價值被充分看好,將會迅速帶來“人聯(lián)網(wǎng)”和“物聯(lián)網(wǎng)”的聯(lián)結(jié)(中山大學(xué)哲學(xué)系教授翟振明語),屆時產(chǎn)生的結(jié)果將是,當(dāng)你進入一個虛擬的世界,你可以獲得實體機械工具(人工無智能機器)的操控能力。在虛擬現(xiàn)實技術(shù)解決視覺感知外,還有聽覺、觸覺、力覺、運動等感知,甚至還包括嗅覺和味覺也被模擬,此外,頭部轉(zhuǎn)動,眼睛、手勢、或其他人體行為動作所能達到的實時響應(yīng),使用者將可以完全獲得虛擬=現(xiàn)實的感覺。

  就此,著名電影《阿凡達》中杰克·薩利在潘多拉星球上的“替身”現(xiàn)象,就會真真切切地出現(xiàn)了。舉一例,A在廣州,但他可以通過虛擬現(xiàn)實的技術(shù),操控他的“替身”去紐約開會。使用期間“替身”所有的動作、發(fā)言和行動,都由A在廣州來操作,因特網(wǎng)就可以提供A與人替的實時鏈接。從技術(shù)上看,這一刻很快就將到來,由此也更加迫切地要求我們,提出倫理上的疑慮和擔(dān)憂。

  虛實難分的倫理困境

  中山大學(xué)哲學(xué)系教授翟振明令人吃驚地創(chuàng)建了全球首個“人機互聯(lián)實驗室”,也令人吃驚地聚焦到了虛擬現(xiàn)實技術(shù)成熟和普及后的倫理問題。

  翟振明的觀點是:以往的技術(shù)基本都是客體技術(shù),即通過制造工具、使用工具來改造自然客體的技術(shù)。并且,這種被制造和使用的工具本身也是客體。例如,一輛汽車、一把錘子雖然融入了人的技術(shù),但它們畢竟還是與制造者分立的物體。與客體技術(shù)相比,虛擬現(xiàn)實技術(shù)則是一種主體技術(shù)。這類新興技術(shù)不是用來制造客體化的工具的,也不是用來改造自然客體的,而是用來改變?nèi)吮旧淼?。成熟了的虛擬現(xiàn)實化的人聯(lián)網(wǎng),相當(dāng)于我們重新創(chuàng)造的一個物理世界。如果此類主體技術(shù)成為我們的主導(dǎo)性技術(shù),我們的生活方式將會從根基上發(fā)生巨變。

  翟振明將《阿凡達》中的“替身”翻譯成“人替”,他認為在使用虛擬現(xiàn)實系統(tǒng)之前,我們主要是用鍵盤、鼠標、手柄之類的東西來操作。有了虛擬現(xiàn)實頭盔等可穿戴設(shè)備,虛擬現(xiàn)實不久就可以整到這里來了,你的人替也不再是第三人稱視角的對象,而是變成第一人稱視角。所以,遠在紐約的人替雖然沒有自我意識,而是作為A的自身存在,A的所有感知和行動都體現(xiàn)在人替上。

  這帶來了直接性的倫理挑戰(zhàn)。按照翟振明的分析,在“人聯(lián)網(wǎng)”與“物聯(lián)網(wǎng)”無縫銜接之后,假如A的人替在紐約犯罪,將會造成紛繁復(fù)雜的困境:例如A在現(xiàn)實中是男性,但虛擬世界中選擇女性,在虛擬世界中性騷擾一位女性,可能造成法律不適用;又如人替與人的關(guān)系,人替是身體的一部分,還是屬于財產(chǎn),處罰時如何處理人替和人;超越國界的使用,也會挑戰(zhàn)政治的邊界,犯罪的A到底是在美國還是中國,這些都值得討論。

  在虛擬和現(xiàn)實之間的邊界變得模糊不清之后,所制造的倫理困境還有非常多,這里只是列舉了其中一小部分。但最為終極的倫理問題不是別的,而是翟振明所憂慮的:在人聯(lián)網(wǎng)和物聯(lián)網(wǎng)無縫融合成一個巨型系統(tǒng)之前,我們最迫切的任務(wù)就是要想辦法保住每個人類個體的自主性,杜絕有人試圖把大家用作操作物聯(lián)網(wǎng)的工具,也就是防止控制了物聯(lián)網(wǎng)的某個寡頭或一小撮寡頭聯(lián)合體把所有的其他人當(dāng)作實現(xiàn)其權(quán)力意志的永久性工具。在這個地方,我們的決策差之毫厘,就有可能導(dǎo)致人類未來走向失之千里。

  的確,假使短期內(nèi)技術(shù)取得很大進展的虛擬現(xiàn)實技術(shù)獲得普及,帶來的絕不是文章開頭擔(dān)心的某一行業(yè)、某些工種受到?jīng)_擊的問題,而是整個社會權(quán)力的重新配置,那些占得先機又肆無忌憚的寡頭,將獲得控制的途徑,并發(fā)生新的專制暴政的問題。學(xué)者、媒體和公民,以及充滿憂患意識的科技人員,有義務(wù)在虛擬現(xiàn)實時代降臨之前,秉持人文理性,倡導(dǎo)建立起新世界的規(guī)范與倫理。

參與評論
回復(fù):
0/300
文明上網(wǎng)理性發(fā)言,評論區(qū)僅供其表達個人看法,并不表明a&s觀點。
0
關(guān)于我們

a&s傳媒是全球知名展覽公司法蘭克福展覽集團旗下的專業(yè)媒體平臺,自1994年品牌成立以來,一直專注于安全&自動化產(chǎn)業(yè)前沿產(chǎn)品、技術(shù)及市場趨勢的專業(yè)媒體傳播和品牌服務(wù)。從安全管理到產(chǎn)業(yè)數(shù)字化,a&s傳媒擁有首屈一指的國際行業(yè)展覽會資源以及豐富的媒體經(jīng)驗,提供媒體、活動、展會等整合營銷服務(wù)。

免責(zé)聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請聯(lián)系我們,本站核實后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡(luò)碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟賠償!敬請諒解!
? 2024 - 2030 Messe Frankfurt (Shenzhen) Co., Ltd, All rights reserved.
法蘭克福展覽(深圳)有限公司版權(quán)所有 粵ICP備12072668號 粵公網(wǎng)安備 44030402000264號
用戶
反饋