導言#
近期湧現的一些科幻題材的遊戲與影視作品,引發了人們對人工智能話題一系列的思索與探討。我在玩到《底特律:成為人類》這款遊戲之後,一方面驚異於遊戲製作者對於近未來世界生活豐富的構想,另一方面深思於人工智能帶來的倫理問題。或許,這個未來就在眼前。
我們不需要科幻的場景,一切都要合乎預期。如果選擇了科幻的場景,可能需要飛行的車輛和外星生物,但這些都和我們目前的生活相距甚遠,我們要的是從目前的現實延伸出的可預期的未來。—— 《底特律》遊戲團隊 Christophe Brusseaux
而在《西部世界》中,這種倫理問題就被無限放大了,仿生人如此相似於人類卻無法得到人類的認同,僅僅只是因為造物者自詡高傲嗎?在《銀翼殺手》中,對於這種創作與被創作之間的關係則有了更深入的探討,該系列的作品中極力強調仿生人無法生育。其實生育並不是技術難題,而是人類極力避免手中的作品具有這樣的功能,因為子宮代表的是造物主的身份,而仿生人是人類作為 Maker 下的產品,如果這個產品也變成了 Maker,那麼人類和仿生人之間的倫理關係就會出現嚴重問題。
那麼,仿生人与人類相差幾何?人類是否具有自詡的、區別於仿生人的特殊性與高尚性?究竟何為人性?
對於這類問題的解答,我認為應該先回到最基礎的層次上去分析,即人工意識(Artificial Consciousness)。若 AI 無意識,那麼所謂的價值與倫理不過是人類的主觀賦予,問題的解答則更應回歸到人類自身;但若 AI 存在意識,問題則又完完全全不同了。在《底特律:成為人類》與《西部世界》中的仿生人最初都是無意識的存在,但經歷了種種事件之後,他們逐漸自我覺醒,產生了同理心與自我認知。在這個過程中,仿生人不再單純只是人類創作的產品了,而是一個完整的、自由的個體。故本文,我將嘗試探討人工意識何以可能?
開端#
關於意識的問題還需先從笛卡爾的身心二元論說起,二元論將實體分為兩類,一類是物質(matter),一類是心靈(mind),其中物質是廣延性的存在,而心靈則是思想的存在。但是這套理論存在著固有缺陷,一方面它無法解釋心理因果性問題,也無法解釋身體與心靈是如何相互作用、相互影響的;另一方面,對於物質的本質是屬性是廣延這一點也存在著很大的爭議,這套哲學觀是靜止的、片面的。具體來說:他將極為精巧的心智過程,與生物有機體的結構和運作分開了。
為了克服實體二元論的固有缺陷,英美心靈哲學家們基本上還是沿著笛卡爾所留下的可能性的路線前進,其主流觀念是消解二元對立,建立一種一元論的哲學立場。其中,最主要的哲學路徑是唯物主義。後世心靈哲學家在此基礎上逐步發展出行為主義、物理主義、功能主義、強人工智能等等多種哲學路徑。
-
** 行為主義(Behaviorism)** 認為心靈只不過是身體的行為,其雖然消解了心理因果性問題但其將行為傾向的表達作為心理因果性的唯一形式,而忽略了個體的能動性,這是不恰當的。因此,行為主義迅速被物理主義所取代。
-
** 物理主義(Physicalism)** 認為心理狀態與大腦狀態具有同一性,具體分為類型同一論(Type to Type)和個例同一論(Token to Token),前者認為每一類型的心理狀態都等同於某種類型的物理狀態,後者認為每一個心理狀態的個例都等同於某種物理狀態的個例,但是其無法避免的會回歸到二元論的立場上去。但個例同一論(Token to Token)給了我們一些積極的思考,心靈結構是否具有多重可實現性(multiple realization)?即物質結構不同是否可能產生同樣的心靈結構?目前來看答案或許是肯定的,我們以痛覺來類比,人類的痛覺由大腦與中樞神經系統產生,但是龍蝦這種節肢動物也是有痛覺的,它們的大腦很簡單,只有 10 萬個神經元,沒有真正的中央大腦,但也擁有痛覺。由此可見,心靈結構具有多重可實現性(multiple realization)。
"As an invertebrate zoologist who has studied crustaceans for a number of years, I can tell you the lobster has a rather sophisticated nervous system that, among other things, allows it to sense actions that will cause it harm. … [Lobsters] can, I am sure, sense pain." ——Jaren G. Horsley, Ph.D
-
** 功能主義(Functionalism)** 在唯物論的基礎上將物質分層級,物質是最低層,心靈和意識則是物質的高級功能(higher level function),而中國古代哲學家王充就曾一針見血地指出:意識與物質的關係就如同鋒利與刀刃的關係,前者都是後者的派生屬性,不可能脫離後者獨立存在。當然啦,那个時候他還認為事物是由氣構成的。
-
** 強人工智能理論(Strong Artificial Intelligence)** 認為意識是軟件程序,而身體是硬件,其將身心關係比作成為計算機的軟件與硬件之間的關係。到目前為止,該理論在心靈哲學、認知科學和人工智能領域仍然是一種頗受爭議的立場。
基於以上理論,我們有理由認為人工意識或許是可以實現的,理由有二:
- 既然心靈結構具備多重可實現性(multiple realization),那就有理由相信意識是可以以另一種人工的手段實現。
- 既然心靈結構或者意識僅是物質的高層功能(higher level function),那麼就有理由相信我們可以人工的去創造一種物質結構,以使其實現具備意識功能。
問題#
但人工意識理論上具有不可能性(impossibility),因為現象性意識具有不可觀測性與私有性,這便導致了實證理論無法驗證現象性意識。
這裡舉兩個例子,以分別說明現象性意識的不可觀測性與私有性:
- 作為蝙蝠是一種怎樣的體驗?
- 瑪麗不知道是什麼?
作為蝙蝠是一種怎樣的體驗呢?這個話題其實對於人類而言,是不可思議的、是無法想像的。因為人類無法體會蝙蝠的感受,我們可以假設蝙蝠的大腦狀態轉換為內在感受是和蝙蝠的內在機制有關。但人類和蝙蝠的內在機制不同,所以人類無法感受到蝙蝠的感受。也就是說現象性意識不能被外界經驗到,缺乏主觀體驗,具有不可觀測性。
瑪麗是一個色彩學家,畢生精力用於研究了紅色和綠色的相關理論,但是她本人卻是一個紅綠色盲患者,那她的理論和哲學僵尸有什麼不同呢?
注:在精神哲學和領悟力的領域中,哲學僵尸(Philosophical Zombie / P-Zombie)是一種和一般人類無法區別並且被認定為缺乏覺察經驗、感受性、感覺、感質的假設性存在者。 一個哲學僵尸可以被尖銳事物刺激到,而他不會有任何疼痛的感覺;然而,他卻會表演出疼痛感他可能會叫 “噢” 並且從尖銳事物退後,甚至告訴我們他感覺很痛。
現象性意識具有私有性。認識不同不代表描述的不是同樣的東西,對應而言,行為雖然相同,但是內心的體驗卻可以完全不同。例如瑪麗認識到的綠色是我們認識到的紅色,我們認識到的紅色是她認識到的綠色,但我們完全無法通過行為區分出來。她的內心體驗究竟是何樣我們無法知道,但就其行為與結果而言,卻具有一致性。同理,對於人工意識而言,我們也不能知道他是否具有意識。這還只是對客觀事物的描述,當人在試圖描述更情緒化的主觀感受時,則更難用具體的文字和行動來表達。
還有兩個思想實驗也引發了我們的深思:
- 中國人論證
- 中文屋實驗
中國人論證是一個簡單的思想實驗,如果我們認為意識是某物質結構的高層功能(higher level function),那麼我們用一個人類去作為這種結構的基本單位,假設這個結構需要一億個基本單位構成,那如此一來這個一億人所組成的結構理應也具有意識(可以想像《三體 1》中秦始皇的人形隊列計算機)。但這種結構的基本單位是人,每個人作為個體都具有自己的意識,那麼這個結構究竟是只有一個意識還是擁有一億個意識呢?
而塞爾(John Searle)所提出的中文屋實驗則更加有趣,這個思維實驗是說,如果把一位只會說英語的人關在一個封閉的房間裡,他只能靠牆上的一個小洞傳遞紙條來與外界交流,而外面傳進來的紙條全部由中文寫成。這個人帶著一本寫有中文翻譯程序的書,房間裡還有足夠的稿紙、鉛筆和櫥櫃。那麼利用中文翻譯程序,這個人就可以把傳進來的文字翻譯成英文,再利用程序把自己的回覆翻譯成中文傳出去。在這樣的情景裡,外面的人會認為屋裡的人完全通曉中文,但事實上這個人只會操作翻譯工具,對中文一竅不通。
這個實驗裡蘊含的思想卻在表達這樣一個可能:機器所表現出的智能,很可能只是翻譯程序帶來的假象,其實它對真正的人類智能一無所知。
除此之外,功能主義的觀點也是不準確的,我們不能簡單地將意識等同於功能或運算的結果,或者說,意識是不可運算的。大腦的功能也許可以說是一台計算機,但更深層的智能活動,特別是以意向性為核心的心智活動絕不是計算機的算法可窮盡的。按照語法規則定義的計算機程序本身不足以擔保心的意向性和語義的呈現。
維特根斯坦說” 我的語言的界限意味著我的世界的界限”,按照塞爾的理論不妨把它改為 ——“意向性的界限意味著言語行為世界的界限”。意向性是對意識活動本質的刻畫,人的一言一行在多數情況下都是積極主動的,由自我意識引導完成,而機器所做的每一件事情都需要事先做出規定,它是機械的、被動的。心的本質不是可計算的,而這一切都不是靠邏輯還原所能達到的。
回應#
我們不可否認現象性意識確實是不可知的,對於不可知論我認為沒有探討的意義。與其去追求這般問題的答案,不如轉向更有意義的研究。即便我們得到了某種解釋,那就答案本身而言其實也不具備哲學意義,故我們無需在意。
而對於上述的思想實驗,其實也無需在意,思想實驗的結論依賴於我們的直覺,並不具備合法性,若深究起來其實也存在很多問題。例如中文屋實驗忽視了工程學維度,若真正實施起來必然需要構建一套模型或者函數,符號雖然不具備語義,但輸入輸出之所以是可預測的,那還是人的意識所賦予的結果。其實在決定模型或者函數之時,就已經構建立起來了形式語義,這就不僅僅是語法的了,而是語義的了。確實,就目前的 NLP 領域研究而言,無論是經驗主義進路去構建深度學習模型,還是以理性主義進路去研究形式邏輯,在構成系統的時刻起,其實就已經是語義的了。後者自不必多言,而前者在餵數據時,監督學習自帶的標籤就是人為所賦予的語義內容。
對於最後的意向性問題,不可否認是目前研究方法的缺陷。目前的人工智能領域研究,確實還有很長的一段路要走,目前我們所看見的 AI 與 “智能” 並無關聯。雖然人工意識目前理論上具有不可能性(impossibility),但我心中仍存有非理性的希望,希望早日見證到人造的智能的到來。因為,這或許就是人類最後一項發明。
尾聲#
無論如何,學者都需要對自己所研究的領域持有敬畏之心。關於 AI 領域仍有許多問題需要探討,本文也僅僅是把問題拋出來供大家思索而已。最後以一段詩歌來作為尾聲:
如果我哭喊,
各級天使中有誰能夠聽得見我?
即使其中的一位突然把我擁向心頭,
我也會由於他的更強健的存在而喪亡。
因為美無非是我們所恰巧能夠忍受的恐怖之開端,
我們之所以驚羨它,
則是因為他寧靜得不屑於摧毀我們。
每一個天使都是可怕的。
—— 里爾克 《杜伊諾哀歌》
參考文獻:
[1]Chuanfei Chin. Artificial Consciousness: From Impossibility to Multiplicity[C]. PT-AI 2017: Philosophy and Theory of Artificial Intelligence 2017 pp 3-18.
[2] 約翰・塞爾。心靈導論 [M]. 上海:上海人民出版社.
[3] 王曼。笛卡爾身心二元論及其對英美心靈哲學的影響 [J]. 唯實,2010 (12):43-46.
[4] Mingke. 人工智障:你看到的 AI 與智能無關 [OL].https://mp.weixin.qq.com/s/IBjOkDeeltlffXXSS0dsDA