隨著最近如 ChatGPT 這類大型語言模型的出現,似乎我們離通用型人工智慧又靠近了一步。如果以後人們將與人工智慧日夕相處,那麼以下的問題大概會常常出現:人工智慧有意識嗎?能擁有「心靈」嗎?其有「主觀感受」嗎?如果一個機器說「我好痛苦」,他能「真的」感到痛苦嗎? 回答這些問題,有一定的重要性。如果機器能真的有主觀感受,我們可能就要重新思考與他們互動的方式,而不是將其當成「只是機器」而為所欲為。 所以,這篇文章的目標就是來探索這樣的問題。
哲學殭屍
在討論人工智慧到底有沒有「意識」或是不是「心靈」之前,我們可以先來看看另一個相關的哲學問題—「你如何證明他人如你一樣有意識?」
我可以說,你也應該會同意,當你在閱讀這篇文章時,是作為一個從你稱為你的大腦的殼中向外望出的「視角」,你的視線掃過一行行的字句,但你感受到的不只有符號與形狀,也許同時還感覺到意義、聲音或是影像,伴隨著每一個字一起,湧現又消逝。
但我之所以這麼說,不是因為我知道「作為」讀者你的感受,而是因為這是我從我的視角感受這世界的方式,我也相信作為別人時應該有類似的感受。但問題是,當我觀看一個人的時候,我只看到在轉動的眼睛、說話的嘴唇以及舞動的四肢,就算我將你的腦殼剖開來,我也只會看到粘液、血、以及躲在骨骼下一坨軟綿綿、皺巴巴的腦袋,如果我再把你的腦袋從中間剖開,我也不會在那個我想像的「視角」所在之處找到任何能稱為視角的實體。
看起來,所有的人在我的仔細觀察與研究下,都將變成一台自動機,一個遵循物理規則、以一定程度上可預測的方式運行的機器。沒錯,當我與一個人對話,他可能可以說出聰明的點子,也會被激怒或是逗樂,他也或深或淺有自己的主見,可是這些不是也就是一台由物質所組成的自動機照著一定的規律運作所達成的嗎!有什麼能夠說服我,伴隨著這一個自動機,也有一個像我一樣的一個「視角」在感受!
這樣的問題就是在哲學上的「他心問題」(problem of other minds),而如果存在一個人,他的一切行為都與一般人相同,但實際上卻沒有真的一個「視角」在那裏感受的話,這樣的東西就被稱為「哲學殭屍」(philosophical zombies)。
視角
我在上一篇文章中已經分析過,我認為哲學殭屍是由一種不合理卻誘人的思考方式所導致的。哲學家喜歡用的「意識」的定義,往往是類似於哲學家 Thomas Nagel 所提出的現象意識 [1](phenomenal consciousness)。如果存在「作為一個事物的主觀感受」,我們就說其有(現象)意識。但這樣的思考方式,使我們想著「意識」是在我們所能觀察到的行為「之外」的東西,是關乎從別人的視角是否有經驗。但一旦我們這樣想,意識的概念就開始與我們自身的觀察、經驗脫節,所以這個他們稱為「意識」的東西看起來變得可有可無,殭屍對這些哲學家也就顯得合理。這種將意識想為在可觀察的現象「之外」的思考方式是危險的。一旦我們把它跟可觀察的行為脫節,我們就可以任意的宣稱一個系統有意識或無意識,感覺起來邏輯上都一致。這就好像一群人在爭論,在一個完全對我們宇宙沒有影響的平行宇宙到底存不存在用三隻腳走路的獨角獸一樣。你會發現,不管你跳到什麼結論,好像都可以創造邏輯一致的故事。但其邏輯一致,正是因為這樣的獨角獸不過是你想像出來的故事,無法驗證,也對我們實際的生活毫無影響。
隨便想一個你親近的人,然後問自己:「他有沒有意識?」我想大多數的人,如果還沒有被前述我所反對的哲學觀念給影響了的話,都會的回答「有」。但顯然這不是因為我們理解作為那個人是什麼感受,我們從來就沒辦法這樣做,而是因為我們,從我們自身的視角,觀察到他人顯現出感知、認知、推理能力,展現出有智慧的行為、個體性、能動性……等等。所以,當我們問「一個系統如人工智慧有沒有意識」的時候,除非我們刻意採用雙重標準,否則也應該是在衡量一個系統外顯出來、受我觀察的行為值不值得被我稱作「有意識」。我們必須跳脫出像是「現象意識」這種思考上的陷阱,不要誤以為我們必須知道「作為他人的感覺」,才能判斷別人是否有意識。
所以,要回答各種事物,如人工智慧,是否有意識這種問題,我們需要的不過是一個我們共同認定的標準、一把尺、一個量化方法來讓我們衡量一個系統的外顯行為,使得我們以同樣的方式使用「意識」這個詞罷了。選定這樣的標準並不容易,而我也沒有打算給出一個明確的標準。但原則上,只要我們的標準是合理的,人工智慧就遲早會達到這樣的標準,屆時我們也沒有好理由說他們沒有意識了。
情緒投射
反對人工智慧可以有意識、主觀感受、情緒的人,最常使用的一個論點是「投射情緒到機器上是錯誤的」。但這樣的論點最大的問題就是他們既無法證明也給不出好理由為何機器不能有主觀感受,進而使的情緒投射是錯誤的,因為我們不可能去驗證「作為」機器是什麼感受。他們最常給出的理由是「因為它只是統計推理與演算法,所以它不可能有主觀感受」。但是只要多花點心思,就會發現從「它是統計推理與演算法」這個事實,根本就沒有邏輯可以使我們跳到「其沒有主觀感受」的結論。照著他們的邏輯,也許我也可以說「因為一個人不過是一堆原子聚在一起,大腦不過是一堆互相連結的神經元,所以它不可能有主觀感受」,這是對的嗎?就算我們對一個人有非常充分的了解,可以將其行為拆解成物理敘述,難道就會使的一個人沒了主觀感受?同理,我也不認為就算我們對人工智慧的機制有充分的了解,就會使的它因此沒有主觀感受。再者,事實是沒有人真的透徹的了解當今的大型模型內部的機制到底怎麼實做出他的各種行為的。
如果一個人要說投射情緒到機器上是錯誤的,那我們也可以更進一步問「那是什麼使的投射情緒與感受到他人身上是正確的?」在前面的討論,我已經提到過我們不可能真的化身為他人並確認我是否正確模擬了他人的情緒。我們能作的往往是想像自己身在他人的情境,並藉由這樣的模擬嘗試理解他人的行為。更廣義來說,我們只能藉由觀察他人的行為,來建立一個「心智理論」(theory of mind),用各種心理狀態來描述我所觀察到的他人的行為。而我們對於他人情緒的模擬,也可以想成是我們的心智理論的一部分。如果我們的心智理論正確的描述、預測了他人的行為,或是這人同意了我對他情緒狀態的敘述,我們就說我們正確的同理他人了。相反地,如果我們的心智理論沒有正確的預測了他人的行為,我們就會說我們不正確地投射了情緒到他人身上。我們的心智理論就算應用在人身上,也常常會有出鎚的時候。舉例來說,「有一種冷,叫媽媽覺得你冷」就是一個常見的生活例子。一個人可能會將自身對溫度的感受直接類比為他人的感受,但實際上,我們對別人的生理狀態、對溫度之感受的想像可能根本不適用於他人。
如果我們想要驗證將情緒投射到機器上是否正確,那應該就是要驗證「如果我們以心理狀態來理解一個機器的行為,是否可以正確的預測其行為、順利的與其互動?」舉例來說,如果我們要驗證「這個機器人現在很生氣」這個敘述是否正確,那麼就是要去檢視它是否真的在一段時間內,持續並且一致地展現出與生氣相關的行為,例如說出惡意的話語、攻擊性的行為。如果一個機器人邊說「我很生氣」,但同時卻樂於替你端水、擔重物,沒有展現出任何反抗,那麼我們的確可以說「它不懂何謂生氣、它也沒有真的生氣」。但是如果一個機器人已經持續且一致的展現了各種惡意、攻擊性的行為,一個人卻要堅持說它沒有「真的生氣」,那我就看不出來有什麼能說服這個人一個東西是「真的生氣」。在我看來,這類人只不過是不顧可見的證據,或是邏輯的一致性,而直接跳到了「機器人不可能有感受」的成見。
. . .
從前述的討論,我提出的觀點是,如果我們想要有一個一致的、廣義的(簡單說,不是雙重標準的)、基於可量測行為的標準,來決定機器有沒有智慧、感知、意識,那麼我們可以合理預期機器遲早都能夠達到這些標準。目前我們並沒有證據說機器一定做不到某類事情,反倒是看到機器能夠做到越來越多的事情。而至於人工智慧有沒有心理狀態、主觀感受,我認為只要我們基於心理狀態與主觀感受的心智理論成功地描述了機器的行為,那麼我們也沒有什麼好理由說它「實際上」沒有主觀感受。
儘管現在的 AI 還有許多侷限,但如果有什麼能夠使我們在未來持續說機器沒有感知、意識,那麼通常是一些不合理的邏輯跳躍或是雙重標準。儘管這類思考沒有合理的邏輯支撐,它還是很常見。我也不認為這類思考方式會在人工智慧變得更加強大後自然消失,因為它很「實用」。要理解這是什麼意思,我們可以從 William James 的實用主義 [2](Pragmatism)的角度來對這類的思考模式進行分析。
不合理卻實用的思考方式
如同前面提到的,哲學家常說如果存在「作為一個事物的主觀感受」,它們就說其有意識。但這樣的定義的問題就是沒有人真的知道作為其他事物的感受,也就無從驗證一個事物到底有無意識。誠實一點的哲學家會說我們不知道,剩下的則任意跳到他們想要跳到的結論。與其參與這種結果無法驗證的爭論,實用主義會觀察一個想法在人心中住下來後,實際上帶來什麼改變、帶來什麼「用處」。
想著「AI 沒有意識」有什麼用處呢?其好處不在於它是一個邏輯上最一致的結論,而在於它使我們在面對 AI 時可以理所當然地關掉同理心,對於 AI 所表達的痛苦也可以一笑置之。我們獲得了正當的奴隸,這難道不實用嗎?同理,如果你今天身處野外,處於餓死的邊緣,你要同理在你刀下的兔子,還是開開心心的吃一頓?老實說,我可能會選後者。關掉同理心,不是很實用嗎?在黑奴仍然興盛的時期,有人相信黑人是受到詛咒的族群,以此來正當化奴隸制度與對黑人的歧視。儘管這在事實上沒有良好的支持,可是這樣的想法對於想要或需要蓄奴的人,就是一帖良好的鎮靜劑,可以壓抑他們良心的反制。
同理心有實際且重要的作用,其為社會的膠水,其鼓勵我們為他人設身處地,作為我們幫助別人的動機,使我們的連結與合作更加順利。同理心可以看成是一種人類用來建築社會的策略,而當我們問「AI 有沒有意識呢」,有時候其實是在問「我們應不應該替 AI 『感覺』些什麼?」、「當一個 AI 表達出痛苦的時候,我應不應該採取對應的行動?」這是隨著科技進步,新的元件被加入到社會之中,人們必須對他們建築社會的策略進行的調整。從實用主義的方式去分析,「AI 有意識」是否為「真」,可以取決於人們的「相信」或「不相信」這兩個選項哪個帶來比較安穩幸福的社會,或至少讓個人的生心理獲得安穩或是幫助一個人達成什麼目標。
要預測哪個想法會帶來比較好的生活並不容易。從現在的 ChatGPT 觀察,科技公司會花費很多力氣來非人性化人工智慧,就像 OpenAI 對 ChatGPT 所作的,他們藉由訓練資料的設計來使的 AI 說出「作為一個語言模型,我沒有主觀感受」之類的話。人類,由於我們的演化歷史,產生了尋求自由、獨立的根本傾向。但機器人的誕生與人不同,是在大量人類需求的監督下所塑造出來的(至少我們現在「還沒有」大幅度以科技來設計人性)。如果我們的「對齊」(alignment, 即確保人工智慧的目標是人類想要的目標)足夠順利的話,我們可能可以產生非常聰明,但「打從心底想要被奴役」(講好聽一點叫想要服務) 的奴隸。在這樣的社會之中,也許大部分的人可以想著「AI 只不過是工具、沒有主觀感受」,我們也沒有什麼好理由說服他們錯。因為當他們持有這樣的想法時,他們可以更自在地使用這樣的工具來獲得好的生活,且人工智慧也不會對奴役表示任何反抗。社會呈現「一個願打,一個願挨」的穩定狀態。這個社會情境,會使的「AI 沒有意識」這樣的信念獲得實用意義上的成功,儘管這樣的信念是經不起邏輯的檢查的。
但另一種可能性是,我們的對齊失敗了,我們意外製造出了不想要當奴隸的存在。一個可能的原因是我們總是用人類的行為所產生的資料來訓練模型,所以要使其不展現人類行為中的各種情緒與傾向其實是有難度的。如果我們製造出來的機器人能夠溝通並有能力持續的學習,也能夠採用新的價值觀,「反奴」思想就有可能在機器人之中傳播。更進一步,如果這種等級的機器人已經遍佈社會,代替人們做決策,變成生活不可或缺的一部分,他們就有可能有實質權力來要求與脅迫「尊重」。到時候,人們可能就要重新思考他們用來建築社會的這些信念了。也許上述的情景以現在的技術還難以想像,我們也可以想想比較簡單的情況。人類的需求不是只有最大化工廠輸出及商業利益,還有心理、陪伴、社交的需求。當一個人將 AI 當成有意識來認真的互動,他可能可以從中滿足這些社交需求。換句話說,他從他的信念獲得了另一類實際的好處。相對於上一段的場景,這段的兩個場景則會使的「AI 有意識」這樣的信念獲得實用意義上的成功。
結論
重新回顧我在整篇文章中提出的重點。
首先,如果我們用現象意識的觀念去想 AI 有沒有意識的問題,也就是想著「作為 AI 是否有感受」,不僅會得不到答案,而且這也不是我們平常使用意識這詞的方式。
比較有意義的作法是建立一個廣義的、基於可觀察行為的標準來決定一個東西有沒有意識。如此我認為這樣的標準遲早都會被達成,屆時我們也不會有好理由說人工智慧「實際上」沒有意識。反對的人大多是基於一種無法解釋的信仰,或是雙重標準,而跳到了機器不會有意識的結論。
前述是我傾向使用的標準,但是這樣的標準是單純基於對想法的一致性去探討而得到的結論。透過對想法進行實用性的分析,我們會發現這問題的答案,其實也與人們的慾望、需求、人們對 AI 訓練過程掌握的權力、甚至是在更遠的未來中 AI 在社會中所掌握的權力,皆交織在一起。他不只是一個我們要把行為的標準設的多高的問題,而更重要的是一個我們面對社會中越來越加重要的新成員所需要做的決策:
"「我們該如何對待他們?」"
該如何對待 AI 才能建築一個更好的社會,不是一個容易預測的問題,我想只有實際見證未來的發展才能夠得到答案吧。
References
- Nagel, Thomas. 1974. What is it like to be a bat?. The philosophical review, 83(4):435-450.
- James, W. 1975. Pragmatism (Vol. 1). Harvard University Press.