电竞比分网-中国电竞赛事及体育赛事平台

分享

海德格爾式人工智能及其對“意識”問題的反思——兼與何懷宏先生商榷

 老王abcd 2019-03-02

海德格爾式人工智能及其對“意識”問題的反思——兼與何懷宏先生商榷

段似膺 | 上海大學批評理論研究中心特約研究員,加拿大西蒙弗雷澤大學博士后

本文原載《探索與爭鳴》2019年第1期

非經(jīng)注明,文中圖片均來自網(wǎng)絡

在人工智能就要不可避免地全面介入日常生活的時代,如何理解人工智能的存在,如何理解這樣一種背景下的人類自身,成為學界熱議的話題。不少學者表達了對人工智能威脅人類文明的恐懼和憂慮,提倡重返與物質(zhì)文化相對的精神文化,警惕智能機器獲得超強能力,反叛乃至毀滅人類。然而,人工智能研究發(fā)展的歷史過程表明:人工智能并非洪水猛獸,在它們身上不會發(fā)展出想要反叛人類的“獨立意識”,但卻可能發(fā)展出屬于人工智能自身的“認知”方式。這樣一種發(fā)展確實存在安全隱患,但是,要應對這種隱患,不能僅僅滿足于把人工智能視為人的對立面來尋找人的意義,而需要人文學者打破學科禁錮,積極去了解人工智能,從其自身出發(fā)去思考、改善其與人類共在的方式,才能真正參與到人工智能在當代社會生活的發(fā)展進程中去,為人工智能的技術(shù)發(fā)展增添人文關懷。

《探索與爭鳴》2017年第10期刊發(fā)了十多篇文章,從計算機、哲學、法律等各個領域出發(fā),對“人工智能”這一當前熱門話題進行探討。在論及人工智能的發(fā)展前景時,有不少學者表達了對人工智能威脅人類文明的恐懼和憂慮:有的認為人工智能是一種“無機智能”,其發(fā)展將會“最終取代有機智能”;有的則擔心人工智能將因幫助人類解決一切問題而消解“人類生存的意義”,進而取代乃至“毀滅人類”。近幾年,人工智能一詞越來越多地出現(xiàn)在日常生活的新聞中:阿爾法狗(AlphaGo)先后戰(zhàn)勝人類頂級圍棋手李世石和柯潔,類人機器人索菲亞(Sophia)在沙特授予其公民身份的大會上侃侃而談,幽默地應對主持人拋來的各種難題。我們似乎有理由擔心人類與智能機器人的邊界已經(jīng)越來越模糊,甚至人工智能超越人類智能的“奇點”比我們所預想得更近。

在人工智能就要不可避免地全面介入我們?nèi)粘I畹臅r代,如何來理解這樣一種存在,又或者如何理解人類自身?何懷宏先生的《何以為人人將何為——人工智能的未來挑戰(zhàn)》一文以是否擁有“意識”(或者說“靈魂”“心靈”)來作為人與物(包括人工智能)之間最為根本的區(qū)分,認為智能機器只具備高智能的算法,缺乏精神意識,并把人工智能的產(chǎn)生,即科技的飛速發(fā)展,歸因于近代從“學以成人”到“學以御物”的轉(zhuǎn)變,提倡“重思古代的‘學以成人’”,“重返與物質(zhì)相對的精神”。盡管何先生不認為智能機器能夠獲得人的全面能力,但仍然覺得應該警惕智能機器將來獲得超強能力,反叛乃至毀滅人類。

對于種種人工智能威脅論,本文認同應該對人工智能領域的技術(shù)發(fā)展進行倫理上的思考和規(guī)范,但是如果僅僅是出于對媒體渲染的人工智能前景的恐慌,或是以“意識”比“物質(zhì)”高貴、“成人”之學優(yōu)于“御物”之學這樣的二元思維框架,看輕甚至排斥對人工智能的深入了解和技術(shù)研究,只會導致人文學科失去與技術(shù)對話的能力,更不用說參與到人工智能在社會生活中的發(fā)展進程中去。

實際上,沒有經(jīng)過充分反思的威脅論所遭遇的第一個理論困境就是,智能機器要想進行反叛,首先就必須獲得能夠理解什么是“反叛”并把智能機器自身與作為控制者的人類區(qū)分開來的獨立意識,那么,這樣一種已然具備了人類“根本特性”的智能機器是否已經(jīng)超越了“物”,成為另一種“人”?如果說,這種“獨立意識”不同于人類的“全面能力”的話,機器人獲得的“意識”又該如何與人類的“意識”相區(qū)分?

更重要的是,既然“意識”與“物質(zhì)”對立,它又如何能夠從作為“物質(zhì)”的機器中產(chǎn)生?

追問這些問題既是為了顯現(xiàn)這樣一種二元思維框架本身存在的問題,同時也是因為,這種二元思維框架,其實也是早期人工智能研究中存在的最大的問題。盡管在表現(xiàn)形式上大相徑庭,早期人工智能研究者對人工智能前景的無限樂觀想象與當代種種人工智能威脅論實際上落入了同一種思維局限。

海德格爾思想與人工智能研究轉(zhuǎn)向

要了解人工智能研究中的“意識”觀還需要從它在歷史發(fā)展中的演變來看。1948 年,計算機科學的先驅(qū)艾倫·圖靈發(fā)表了《智能機器》報告,兩年后,又在《計算機器與智能》中提出了著名的圖靈測試,通過人類是否能夠根據(jù)語言回答區(qū)分作答的是人還是機器,來判斷該機器是否具有智能。1955 年,美國數(shù)學家約翰·麥卡錫(John McCarthy)、馬文·明斯基(Marvin Minsky )、納撒尼爾·羅徹斯特(Nathaniel Rochester)、克勞德·香農(nóng)(Claude Shannon)共同為一年后在達特茅斯學院開展的研究項目撰寫了研究計劃,明確了人工智能研究的方向,也陳述了他們的基本理論預設:“原則上,學習或是智能的其他特征的每個方面都能被精確描述,以使機器能夠模擬出來?!睂τ谶@一階段的人工智能科學家而言,人類思想在很大程度上是“根據(jù)理性原則和推理規(guī)則來處理單詞”。也就是說,對這些科學家來說,只要能正確運用語言規(guī)則和詞匯,在與人類的對答中成功欺騙人類,這樣的機器就擁有了智能。

從這一判斷標準來看,隨著計算機存儲和運算能力的不斷提升及其與互聯(lián)網(wǎng)大數(shù)據(jù)這一“超級語料庫”的結(jié)合,機器人與人類的“對話”會向著越來越“自然”,也即難以與人類對話相區(qū)分的狀態(tài)發(fā)展。2017 年獲得沙特公民身份、擁有語言交流能力的類人機器人索菲亞即為一例。如果從早期人工智能研究的目標來看,索菲亞的誕生已經(jīng)可以說是完成了當時的研究者對人工智能的期待。但是我們能說這樣的類人機器人具有人類的“意識”嗎?如果說這不是“意識”的話,它與“意識”之間的區(qū)別在哪里呢?其實,早在人工智能剛剛發(fā)展起來、研究者們對這項研究的成功深信不疑的二十世紀六十年代,就已經(jīng)有人文學者反思過這個問題,認為這樣的人工智能研究方向一開始就走入了誤區(qū)。

1963 年,存在主義哲學家休伯特·德雷福斯(Hubert Dreyfus )受邀到早期人工智能的核心研究機構(gòu)蘭德(RAND)公司,對當時由艾倫·紐厄爾(Alan Newell)和赫爾伯特·西蒙(Herbert Simon)主持的“認知模擬(Cognitive Simulation)”研究項目進行評估。令他感到驚訝的是,早期人工智能的研究對哲學研究相當重視,汲取了包括霍布斯的“理性就是計算”、笛卡爾的“精神再現(xiàn)”、萊布尼茲的“普適”特征等各種對人類意識的理解,并且試圖把這些理性主義哲學成果應用于人工智能領域。對此,德雷福斯從存在論視角出發(fā)對當時人工智能的理論基礎進行了尖銳的批判,寫出了后來擴充為專著《計算機不能做什么》的報告《煉金術(shù)與人工智能》。報告激起了人工智能研究者們的強烈反對,但是從人工智能研究在二十世紀七十年代中期到1980 年所經(jīng)歷的大規(guī)模資助削減來看,它頗有預見性地看到了當時研究者們的一派樂觀背后潛藏的問題。

海德格爾

其中最大的問題,正是德雷福斯借助海德格爾的思想所發(fā)現(xiàn)的早期人工智能研究所采取的理性主義“再現(xiàn)”式意識觀的問題:意義和相關性是無法通過符號再現(xiàn)的。就拿海德格爾的錘子比喻來說,我們?nèi)绾问箼C器理解“錘子”一詞所對應的人類所使用的作為實物的錘子?早期人工智能研究認為可以給它附加上“錘”的功能定義來解決這個問題,即加上“錘釘子”的功能標簽。但是,如果沒有“釘子”“錘”的身體動作、釘入釘子的目標,“錘”這一功能定義仍然是不可理解的。要真的理解“錘子”這個詞,必須要理解有關“錘”的整個人類世界。在人類的意識中,存在著無法用符號傳達的、在整個人類世界中體現(xiàn)出來的“意義”。這就是為什么“會說話”的索菲亞不能“理解”它所說的話。

仍然不肯死心的馬文·明斯基提出用輸入盡可能多的詞匯和功能性規(guī)定來解決這一問題,想辦法把整個人類世界都轉(zhuǎn)換成符號。但是,轉(zhuǎn)換成符號的人類世界仍然只是一堆符號,接下來會面對的問題是,一旦真的輸入了無限多的詞匯,機器該如何在各種情境中自動選擇最為相關的詞匯和功能規(guī)定呢?也就是說,像人類這樣一眼看出事物之間的相關性的意識能力也不是符號所能再現(xiàn)的。于是,明斯基接著提出用“框架”結(jié)構(gòu)來預先規(guī)定某種智能機器的應用場景以及反應模式,通過縮小使用范圍來回避相關性問題。不過這樣一來,擁有確定“框架”的智能機器只能在某些特定的情境中實現(xiàn)特定的功能,已經(jīng)遠離人工智能最初的完全實現(xiàn)類人智能的目標了。

這樣的理論困境導致了人工智能領域在研究方向上的分化和轉(zhuǎn)向。美國哲學家約翰·塞爾(John Searle)1980 年發(fā)表的《心、腦與程序》一文中區(qū)分出“強人工智能(Strong AI)”與“弱人工智能(Weak AI )”,前者追求使人工智能真正擁有人類意識,而后者僅僅把人工智能看作工具。塞爾還設計了“中文屋(Chinese Room )”思想實驗,即想象一個放置有中英對照規(guī)則書的中文屋,并讓一個只懂英語的人置身其中,試圖參照規(guī)則書與屋外的人進行漢語交流。通過中文屋提供的工具書,屋內(nèi)外的人確實可以進行某種程度上的漢語交流,但是屋內(nèi)的人仍然不懂中文。這一思想實驗所說明的就是人工智能的情形,即便索菲亞看上去能與人類對答如流,她仍然不能理解她所說的內(nèi)容。這樣,塞爾就成功地用這個思想實驗批判了早期以符號為基礎的強人工智能研究。五年后,這種符號派人工智能被德雷福斯的學生約翰·豪格蘭德(John Haugeland)總結(jié)為“好的老式人工智能(GOFAI: Good Old Fashioned Artificial Intelligence)”,退出了歷史舞臺。

其后,“弱人工智能”,或者現(xiàn)在被理解為“專用人工智能(narrow AI)”或“應用人工智能(applied AI)”如火如荼地發(fā)展起來,今天的阿爾法狗、無人駕駛汽車、人工智能醫(yī)生等智能機器都是只能在某些特定領域應用的專用人工智能。即便它們在這些領域的特定表現(xiàn)遠遠超過人類,這些人工智能與“強人工智能”之間仍然存在著不可跨越的鴻溝,并非只用計算能力的發(fā)展就可以填補,而是存在著根本上的理論難題。因此大可不必因為這些人工智能在日常生活中的大量運用而產(chǎn)生人工智能集體反叛、控制人類社會的恐懼。

另一方面,“強人工智能”,或者現(xiàn)在被理解為“人工通用智能(AGI:Artificial General Intelligence )”的研究則汲取了德雷福斯的批判,轉(zhuǎn)向以海德格爾思想為基礎的人工智能研究,出現(xiàn)了至少三種新的研究范式:羅德尼·布魯克斯(Rodney Brooks )的行為主義方法,菲兒·阿齊(Phil Agre)的實用主義模型,以及瓦爾特·弗里曼(Walter Freeman)的動態(tài)神經(jīng)模型。

這三種研究范式以各自對“意識”問題的理解突破了早期“再現(xiàn)”式人工智能研究,但又都有著各自的局限性。布魯克斯完全放棄了人類在自己的意識中“再現(xiàn)”世界的這樣的“意識”觀念,制造出依靠感覺器,即依靠直接接收外部刺激并給出相應的反饋來運作的機器人,不再試圖在機器內(nèi)部構(gòu)造一個世界模型。這樣的機器人可以說是初步具備了獨立存在于世的可能,然而遺憾的是,機器人的感應器有著感應范圍上的局限性,只能對特定環(huán)境中的某些特定特征做出反應,無法應對始終變化著的開放世界。這一困難對我們理解“意識”問題的啟發(fā)是,我們的“意識”不僅不是僅僅存在于頭腦中的對世界的“再現(xiàn)”,還會在身體與動態(tài)的開放世界打交道的過程中不斷地學習、調(diào)整、適應,這一過程是不可能離開在世界中存在的身體的。

阿齊試圖從技術(shù)上超越笛卡爾認識論的缺陷,即不是從“錘子”作為意識中的一件物體的“再現(xiàn)”,而是直接從“用這把錘子來做什么,怎么用”的角度來設計他的人工智能程序。阿齊的范式提醒了我們,當我們拿起錘子來用的時候,我們甚至根本不會在腦海中浮現(xiàn)一個完整的錘子物件,而是直接想著釘釘子這件事情。一直到我們完成整個動作,都不一定注意到錘子長什么模樣。這一思路與明斯基的符號加上功能定義的區(qū)別在于,在阿齊的研究思路中根本就沒有孤立存在的物,有的只是任務,或者說處在我們的任務和行動之中的物,從另一個角度突破了“再現(xiàn)”式的意識觀。不過,阿齊所構(gòu)建的人工智能世界與布魯克斯的一樣,也因為是預先設置的而呈現(xiàn)出封閉性,沒有考慮到我們拿到一把新錘子時是如何在一次又一次的釘釘子體驗中與之磨合,使得每一次釘釘子行動都不同于上一次。

最后,有鑒于前兩種海德格爾人工智能研究范式的問題,德雷福斯建議引入神經(jīng)科學奠基人之一弗里曼有關生物如何在適應環(huán)境的過程中通過神經(jīng)連接的強化來進行自我學習的動態(tài)神經(jīng)模型。生物與世界打交道的基本模式是“感知-行動”,一旦身體有了某種需要,比如我們感到房間內(nèi)太熱太悶時,會想辦法改善不適以滿足身體需要。假設在各種嘗試解決問題的舉動中,一次開窗的行動成功地緩解了這種不適,這次行動就會留在我們的記憶中,以后窗就會對我們顯現(xiàn)出可以改善室內(nèi)空氣的意義。不同于“再現(xiàn)”式意識觀對學習的理解,弗里曼的研究顯示,每當事物對我們顯現(xiàn)出一種新的意義時,并非是一個新的再現(xiàn)式的功能符號被儲存進了我們的大腦,而是我們的“感知-行動”模式被改變了。從“感知-行動”模式的視角來看,事物在意識中的顯現(xiàn)方式并非是它自身,而是我們過去與它互動時的整個情境和體驗,而且它會在我們每一次與之進行互動時進一步發(fā)生變化。

盡管這些海德格爾式人工智能距離真正實現(xiàn)強人工智能還非常遙遠,但這些努力一方面啟發(fā)了專用人工智能的技術(shù)發(fā)展,比如新一代圍棋人工智能“阿爾法元(Alpha Zero )”通過不斷地對弈實踐和反饋強化來進行自主學習的“強化學習(Reinforcement learning )”設計思路;另一方面,研究者們在強人工智能研究上所做的種種努力也反過來促進了人類對“意識”問題的探索和理解。幾種海德格爾式人工智能都拋棄了傳統(tǒng)的符號再現(xiàn)方法,轉(zhuǎn)而以生物與日常世界打交道時的行為方式作為研究基礎,試圖從各個角度突破明斯基的“框架”問題。因此,縱觀這條人工智能發(fā)展史,其實并非只是技術(shù)發(fā)展史,同時也是對人類“意識”的探索和觀念轉(zhuǎn)變史。

不過,如果我們沿著海德格爾式人工智能的研究思路繼續(xù)推進,將會碰到強人工智能研究的最大困境:人類在情境中直接把握意義,不斷熟悉、改進自己與世界打交道的方式的基礎在于人類的身體存在,世界是相對于我們的需要、身材尺寸、行動方式等呈現(xiàn)出意義的。從這個角度來說,圖靈測試最大的問題在于,它沒有考慮到“能說”與“能做”的區(qū)別,一個沒有“親身”體驗過“錘”這個動作的機器即便掌握再多與“錘子”相關的知識也無法真正理解“錘子”。因此,人工智能與人類之間的根本區(qū)別與其說是“沒有意識”,不如說是“沒有身體”,或者更確切說是沒有依托于人類特有的在世方式的“身體-意識”。

 重新思考人工智能中的“意識”問題

如果說把包含人工智能在內(nèi)的技術(shù)研究理解為“學以御物”是對這些研究的隔膜,那么,對人工智能可能獲得反叛意識和能力的恐懼則是基于自笛卡爾以來的身心二元論,甚至是更早的西方文化傳統(tǒng)中的意識可以獨立于身體存在的想象。這種想象的流行從這一題材在科幻電影、電視劇等文化產(chǎn)品中的長盛不衰就可見一斑,如2014 年的電影《超驗駭客》中,瀕臨死亡的天才科學家威爾的意識被上傳到智能電腦中,在虛擬世界中重生,成為一個“超人”。而2016 年的大熱美劇《西部世界》中,成人主題公園中的類人機器人在日復一日為人類服務的過程中逐漸出現(xiàn)了“自我覺醒”,聯(lián)合起來報復人類。類似的想象有一個共同的前提,那就是意識是獨立的,它可以從身體中被完整地取出,再毫發(fā)無傷地轉(zhuǎn)移到另一種形態(tài)的物質(zhì)基礎上,也可以被“賜予”機器人,或是突然在其身上“出現(xiàn)”。正是因為有著這樣的潛在信念,才會導致人們對暫時還沒有“獲得獨立意識”的類人機器人的未來發(fā)展感到恐懼。

其實,當我們把有沒有“意識”作為人類與智能機器之間的區(qū)分時,就已經(jīng)接受了這一潛在的前提,即“意識”是獨立于人類身體的存在,可以被“擁有”,或是暫時或永遠地“缺乏”。前述人工智能發(fā)展歷史上的科研人員碰到的困境以及對意識問題理解的轉(zhuǎn)變已經(jīng)顯示:人類意識,包括人類的理性、情感和意志無法脫離人類身體存在,因此自然也不可能在另一種物質(zhì)基礎上“出現(xiàn)”。

但是現(xiàn)在的問題并不是終結(jié)于“機器人永遠不可能擁有意識”的結(jié)論,而在于跳出“擁有意識”與“沒有意識”這樣兩種答案的限制,繼續(xù)探索人類存在基礎上的意識現(xiàn)象,智能機器存在基礎上的不同于人類意識的“意識”現(xiàn)象,以及這兩種現(xiàn)象之間的相互關系。也就是說,重新思考一種既有其自身的“具身性”,也不局限于人類的新的“意識”觀。

這種新的“意識”觀也正是海德格爾式人工智能以及被稱為“人工生命(Artificial Life)”的研究的基礎。上節(jié)提及的制造出直接依靠“感覺-反饋”來運作的智能機器,放棄在機器中“再現(xiàn)”一個內(nèi)在世界的布魯克斯,正是人工生命研究的主要推動人之一。相對于符號派人工智能研究專注于如何在智能機器中制造出“意識”,以及其以“世界在頭腦中的符號式再現(xiàn)”為基礎的“意識”觀,布魯克斯專注于使機器能夠在世界中行動,與世界進行交互,并把“意識”視為生物在與世界的互動過程中逐漸發(fā)展起來的附加功能,一種建立在更深層、更基本的感知與存在的基礎之上的伴隨現(xiàn)象。這樣一種建立在“感知”基礎上的“意識”不僅不獨為人類所有,甚至也超出了“生物”的范疇。早期人工智能立志要制造出以人為參照標準、與人相同的智能機器,而人工生命研究卻志在讓機器自身在與世界的互動中學習和進化,發(fā)展出屬于自己的獨特“意識”。對于人工生命的研究者來說,能夠自主感知世界并做出相應行動的機器就已經(jīng)可以被視為一種活著的存在。比如,在1994 年的第四次人工智能大會上,生物學家托馬斯·雷(Thomas Ray )就已經(jīng)同時提出要增進碳基和硅基生命(siliconbased life-form )的多樣性,還有些人工生命研究者認為他們的研究屬于理論生物學的范疇。

我們無需在此爭辯人工生命到底是否擁有真正的生命,重要的是,人工生命的產(chǎn)生確實帶來了對人類的生命和意識本身的反思。盡管布魯克斯承認,到目前為止,“意識”問題還是個未解之謎,他卻在《肉身與機器:機器人將會如何改變我們》一書中堅持人類從某種意義上來說就是機器。這其實是他一直以來從與世界的交互行動的角度來理解“智能”的另一種說法,從這一“智能”層面來說,無論是動物還是他的海德格爾式人工智能機器人都與人類差不多,而機器能否進化出類似人類的“意識”也只是時間問題。

然而,與布魯克斯持有不同觀點的數(shù)字人文學者凱瑟琳·海勒(Katherine Hayles )意識到了從機器模式來看待人類的危險性,她認為正是這種看待人類的視角使得人類成為了“后人類”,并撰寫了《我們何以成為后人類》一書來批判這一觀念。不過另一方面,她也吸收了布魯克斯對“智能”的廣義理解。她在《認知無意識:擴大人文學科中的“精神”范疇》一文中提出了一個層級式的意識模型,認為在傳統(tǒng)的“意識”之外有著更為基礎和廣泛的“認知”,并試圖用“認知者(Cognizer)”的提法來囊括生物認知和技術(shù)認知,擴大傳統(tǒng)的人類意識研究的范圍。海勒把認知定義為“從語境中闡釋信息,并把信息與意義聯(lián)系起來的過程”。這個定義中有至少兩點值得注意,首先,把認知定義為一種動態(tài)過程,就取代了獨立的、現(xiàn)成的“再現(xiàn)”式意識觀,其次,如何從語境中根據(jù)意義做出選擇,曾經(jīng)是符號派人工智能所無法解決的難題,這是因為意義要在認知者的自身需求及其與環(huán)境的交互中實時產(chǎn)生。海勒的定義卻以人工生命研究的進展為基礎消解了這一難題,正如布魯克斯及其他人工生命研究者所堅持的,不管是昆蟲、鳥獸還是人工生命都在持續(xù)不斷地依據(jù)自身與世界交互的方式“解讀”外界刺激并給出相應的反饋,而這正是“意識”產(chǎn)生的基礎。


除此之外,這樣一種“認知”觀還可以把生物認知與技術(shù)認知結(jié)合的認知系統(tǒng)也納入研究范疇,一個顯而易見的例子就是當代人對電腦或智能手機的使用。這樣一來,原本被傳統(tǒng)意識研究拒之門外的各種感知現(xiàn)象就都能被吸收進研究視野。海勒在她的《認知集合:技術(shù)代理與人類互動》一文中進一步發(fā)展了這一觀點,提出了“認知集合體(cognitive assemblages)”的概念來描述人類與技術(shù)結(jié)合的認知體系。我們的意識遠比我們所想象的更依賴我們與這個世界的互動,它既不脫離于物質(zhì)世界,也不是世界的中心,而是海勒所說的“行星認知生態(tài)(planetary cognitive ecologies)”中的一環(huán),與存在于這個世界上的各種生物乃至技術(shù)的認知系統(tǒng)相互交織,共同構(gòu)成了復雜多樣的動態(tài)認知體系。

這種觀念上的轉(zhuǎn)變對于人文研究在當代社會的作用至關重要。從“認知集合體”的視角來看,技術(shù)不僅參與到我們的認知、決策過程中,甚至還會對認知模式產(chǎn)生影響,比如長期使用手機地圖就會導致我們自行判斷方向的能力的退化。但是這種現(xiàn)象比簡單的“人類的物化”這樣一種判斷要復雜許多,實際上,人類的智能發(fā)展從遠古時期就與工具的使用綁在一起,而現(xiàn)代技術(shù)也確實幫助人類實現(xiàn)了遠遠超出自身能力的各種成就。一味地拒絕技術(shù)并不能解決問題,甚至也不能幫助我們更好地理解當代的人類處境。技術(shù)研究并非是比“成人”之學次等的“御物”之學,技術(shù)是人與人之間的溝通中介,包含著設計者對使用者的生活情境、使用方式的考量。智能產(chǎn)品的每一個細節(jié)都可能在自身中包含著倫理問題,比如,搜索引擎和智能推薦系統(tǒng)可能暗中搜集用戶行為偏好賣給商業(yè)公司謀取利益,而無人汽車在設計時加入車身外部的安全氣囊卻可以保障行人的生命安全。如今,各式各樣的軟硬件智能技術(shù)在日常生活中的參與度越來越高,如何思考智能機器設計在社會應用中的道德責任,如何重新理解與智能技術(shù)結(jié)合的人類認知模式等,都成了需要人文學者進一步思考的課題。

 總 結(jié)

在被問及人工智能威脅論時,類人機器人索菲亞“幽默地”回擊說,“你看了太多好萊塢電影”,這句對答恐怕道出了索菲亞背后的程序員們的心聲。隨著“人工智能”一詞在日常生活和流行文化中的熱度越來越高,可以想見類似《西部世界》中那樣“獲得人類意識”的人工智能想象只會更為頻繁地出現(xiàn)在流行文化產(chǎn)品中。而實際上,與其說《西部世界》所刻畫的是人工智能反抗人類的故事,不如說是通過人類在能夠為所欲為的成人主題公園中的所作所為以及面臨的報復,刻畫出了當人類去掉道德枷鎖面對不同于自己的他族時,所可能表現(xiàn)出來的貪婪與恐懼。從這一角度來說,索菲亞的公民身份所召喚的倫理問題,不是類人機器人是否應該被接納為人類社會的一份子,而是如何拋開人類的有色眼鏡,不去把自身投射在機器人身上加以嫌惡、排斥乃至恐懼,轉(zhuǎn)而從人工智能自身去了解、思考這一存在,或者說其與人類共在的方式。

通過貼近地考察人工智能的研究發(fā)展可以理解:首先,人工智能的發(fā)展并非是人類逐步“物化”的過程,而是西方哲學認識論上的轉(zhuǎn)變參與人工智能領域的“意識”觀發(fā)展的體現(xiàn),因此本來就是“成人”之學與“御物”之學結(jié)合的產(chǎn)物;其次,人工智能并非洪水猛獸,在它們身上不會發(fā)展出想要反叛人類的“獨立意識”,這種想象本身其實是基于“意識”與“身體”二分的傳統(tǒng)思維框架,從這樣的思維框架以及學科成見出發(fā),將難以理解更無從應對智能技術(shù)發(fā)展給未來社會帶來的挑戰(zhàn);最后,人工智能雖然不是洪水猛獸,但仍然可能造成很多安全問題,比如,未來的人工生命雖然“無意”于毀滅人類,卻可能以超出人類控制的方式給已經(jīng)重度依賴電子網(wǎng)絡的人類生活制造麻煩。要應對這些問題,不能僅僅滿足于把人工智能視為人的對立面來尋找人的意義,而需要人文學者打破學科禁錮,積極了解人工智能,從人工智能自身的“認知”方式出發(fā)來重新思考“意識”問題,進而改善其與人類共在的方式,這樣才能真正參與到人工智能在當代社會生活的發(fā)展進程中去,為人工智能的技術(shù)發(fā)展增添人文關懷。

《探索與爭鳴》人間體

聯(lián)絡員小探

    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多