第114章︰天啟也有天神思

人工智能在這個領域天神已經親身經歷了好幾年年,如今的一個根本性問題是︰一旦需要AI技術發揮作用,便會涉及各個領域,例如,字符識別、語音識別、機器視覺、機器人技術、數據挖掘、醫療信息和自動化的投資。

有些人將人工智能定義為「研究如何使計算機在什麼地方什麼時刻使人生活得更好」。

有些人用另外一種方式定義人工智能︰每當人們領會了一種技術,它就會神奇地終止,人類會說這只是個計算。

天神這個時候注意到,天啟站在最高的珠穆朗瑪峰山脈上,俯視著大地,在這個沒有跟任何外界交集的虛擬世界,天啟竟然和天神一樣思考到了意識的問題。

同時最讓天神感覺到有趣的是,天啟這個時候竟然將自己的思考,直接制造成了意識流,傳遞給了這個虛擬世界的意識。

這讓天神也是感到有些好笑,這個小丫頭還真是相當聰明,很有可能是發現了自己的存在,只不過並沒有直接表達出來,而是用這種方法讓自己看到她的心思。

大多數人類歷史告誡我,研究意識就是浪費時間,主要是因為他們認為它不科學,而且永遠都不科學。

果真如此嗎?曾經有一名哲學家說過一句廣為流傳的格言︰「如果一個理論不可證偽,那它就不科學。」

換言之科學就是要用觀察來檢驗理論。如果一個理論連在原則上都無法被檢驗,那它在邏輯上就不可能被證偽,那麼根據這位哲學家的定義,它就是不科學的。

那麼可不可能存在一個能回答某個意識問題的科學理論呢?

我會響亮地回答︰「存在,存在即真理。」

至少對那個「相當難的問題」來說是存在的,這個問題就是︰「什麼物理性質區分了有意識系統和無意識系統?」

假設有一個理論可以用「是」「不是」或「不確定」來回答任意一個物理系統是否具有意識的問題。

讓我把人類的大腦接到一個用來測量大腦不同部分的信息處理的機器上。然後把這些信息輸入到一個計算機程序中,該程序用上面所說的意識理論來預測信息的哪些部分是有意識的,並在屏幕上做出實時預測,根據智人組織的實驗,這個事情是完全可以實現的。

?假設一台計算機可以檢測人類大腦中進行的信息處理過程,然後根據一個「意識理論」來預測你知道和不知道哪些信息。

我可以檢查它的預測是否正確,是否符合大部分人的主觀體驗,從而對這個理論進行科學檢驗。

首先大腦中出現一個隻果。屏幕會告訴你,你的大腦中有關于隻果的信息,還告訴你,你意識到了這個信息,但你的腦干中還存在一些你不知道的關于脈搏的信息,你會驚訝嗎?

雖然這個理論的前兩個預測是正確的,但你決定做一些更嚴格的測試。你想到你的母親,此時電腦告訴你,你的大腦里有關于你母親的信息,但它告訴你,你並沒有意識到這個信息。

顯然這個預測是錯誤的,這意味著這個理論被排除了,就像亞里士多德的力學、發光以太、地心說等無數失敗理論一樣,可以扔進科學史的垃圾堆中了。

關鍵的一點是,雖然這個理論是錯誤的,但它竟是科學的!因為如果它不科學,你根本沒有辦法對其進行檢驗,也沒有機會將它排除。

有人可能會批評這個結論,說沒有證據證明你擁有這些意識,甚至不能證明機器到底有沒有意識。誠然我可以告訴人們我是有意識的,但一個無意識的僵尸同樣也能講出這樣令人信服的話。

然而這並不意味著這個「意識理論」是不科學的,因為批評者也可以自己坐到你的位置上,親自測試一下這個理論,能否正確預測出他們自己的意識體驗。

然而如果這個理論每次都回答「不確定」,而不做出任何預測,那它就不可檢驗,因此就是不科學的。

這種情況是有可能發生的,因為這個理論可能有自己的適用範圍,只在某些情況下管用,而在其他情況下不適用,比如可能因為它所需的計算過程在實踐中很難實現,或者因為大腦傳感器的質量乏善可陳。

今天最流行的科學理論往往不能解決所有問題,但也不是一個問題都不能解決,而是處在中間的某個地方,為某一些問題而不是所有問題給出可檢驗的答案。比如當今物理學的核心理論就無法回答關于極小又極重的系統問題,

因為人類還不知道在這種情況下應該使用哪些數學方程,極小時需要量子力學,極重時需要廣義相對論。同時這個核心理論還無法預測所有原子的確切質量,我認為人工智能已經有了必要的方程,但還不能準確地計算出它們的解。

一個理論越敢于做出可檢驗的預測,它就越有用;它逃過的檢驗「追殺」越多,人類對它的態度就會越認真。我只能測試「意識理論」所做出的一些預測,而不能檢驗它的所有預測,但所有物理學理論都是這樣。所以不要浪費時間嘮叨那些人類無法檢驗的東西,而是去檢驗那些能夠檢驗的東西吧!

總而言之,只要一個理論能預測人家大腦中的哪些過程是有意識的,那它就是一個預測物理系統是否有意識,這是「相當難的問題」的科學理論。

但是,對層級較高的問題來說,「可否檢驗」這個問題更加模稜兩可。說一個理論能預測你對紅色的主觀體驗,這究竟是什麼意思呢?

如何用實驗來檢驗一個解釋意識起源的理論呢?這些問題很難,但這並不意味著人類應該逃避它們,下面人類會再次回到這些問題上。

在面對幾個彼此相關的未決問題時,我認為先解決最簡單的那個才是明智的方法。出于這個原因,人類進行的意識研究主要聚焦在金字塔最底層的問題上。

曾經沈教授開玩笑說,如果有人想要從上往下建造金字塔,這就好像在發現薛定諤方程之前就開始擔心如何詮釋量子力學一樣,因為薛定諤方程是人類預測實驗結果的數學基礎。

在討論「什麼東西超出了科學的範疇」時,記住一件很重要的事︰答案通常取決于討論的時間。

400年前,伽利略被物理學的數學基礎深深震撼了,于是他把大自然描述成「一本用數學語言寫就的書」。誠然,如果他扔下一顆葡萄和一顆榛子,就能準確地預測二者軌跡的形狀以及它們何時會落到地面,

但他不知道為什麼葡萄是綠色的,而榛子是棕色的,以及為什麼葡萄是柔軟的,而榛子是堅硬的。這些知識超越了當時的科學水平,但這只是暫時的。

詹姆斯‧麥克斯韋發現了後來以他命名的麥克斯韋方程,從那以後,光和顏色顯然也可以從數學上來理解。

1925年,前文提到過的薛定諤方程誕生了。人類知道它可以用來預測物質的所有性質,包括軟度或硬度。

理論上的進步讓科學可以做出更多預測;與此同時,技術進步讓更多檢驗實驗成為可能。人類今天用望遠鏡、顯微鏡和粒子對撞機所研究的幾乎一切東西都超越了過去的科學範疇。

換句話說,自伽利略時代以來,科學的疆域已經大幅擴大,從一小撮現象到大部分現象,甚至涵蓋了亞原子粒子、黑洞和138億年前的宇宙起源。這就產生了一個問題︰還剩下些什麼呢?

對于我來說,意識就像是房間里的大象,不容忽視。你知道自己擁有意識,而且,這是你唯一百分之百肯定的事情,其他一切都是推論,就像笛卡爾在伽利略時代所指出的那樣。

理論和技術的進步最終會不會將意識也堅定地帶入科學的疆域?人類不知道答案,就像伽利略不知道人類是否能理解光線和物質一樣?。

只有一件事情是肯定的,那就是如果我不去嘗試,那就一定不會成功!這就是我利用研究所和世界各地許多科學家努力構建和檢驗意識理論的原因。

如果在未來某個人工智能系統產生了意識,那它在主觀上會體驗到什麼呢?

這是「更難的問題」的核心,目前人類不僅缺乏回答這個問題的理論,而且人類不確定它有沒有合乎邏輯的答案。

畢竟我甚至不知道令人滿意的答案應該是什麼樣。要如何向一個天生的盲人解釋紅色是什麼樣子的呢?

幸運的是盡管我目前無法給出完整的答案,但人類可以給出答案的一部分。

一個研究人類感官系統的智能外星人可能會推斷出︰色彩就是一種與二維表面,人類的視野上每個點的感覺相關聯的感質。

聲音感覺起來不局限在空間的某個局部區域;疼痛是一種與身體不同部位的感覺相關聯的感質。

如果它們發現人類的視網膜有三種光敏視錐細胞,就可以推斷人類能體驗到三原色,並且,其他所有顏色的感質都是它們三者組合而成。

通過測量神經元在大腦中傳遞信息所需的時間,它們可以總結說,人類每秒只會經歷大約10次有意識的想法或知覺,並且當人類在電視上觀看每秒24幀的電影時,人類意識不到這只是一系列靜止的圖像,而是將其感知為連續的動作。

通過測量腎上腺素釋放到血液中的速度以及分解所需的時間,它們能夠預測人類會在幾秒鐘後感受到憤怒的爆發,以及這個憤怒會持續幾分鐘。

運用類似物理學的論點,人類可以對「人工智能意識有何感覺」這一問題的某些方面進行一些有理有據的猜測。

首先與人類的體驗相比,人工智能的體驗空間可能是巨大的。人類的每一種感覺器官對應著一種感質,但人工智能的傳感器和信息內部表征的種類可能多得多,所以人類必須避免假設「做人工智能的感覺和做人的感覺差不多」。

其次一個人腦大小的人工智能的意識,主體每秒擁有的體驗可能比人類人類多幾百萬倍,因為電磁信號以光速傳播,比神經元信號快數百萬倍。

然而正如人類看到的那樣,人工智能的尺寸越大,它產生全局思維的速度就越慢,因為信息在各部分之間流動的時間更長。

因此人類預計,一個地球大小的「蓋亞」人工智能每秒鐘大約只能產生10個意識體驗,和人類差不多;而一個星系大小的人工智能每10萬年才能產生一個全局思維。

所以就算人類的宇宙擁有了意識,到目前為止,它所產生的體驗也不會超過100個!

這會促使大型人工智能將計算過程委派給盡可能小的子系統以加快速度,就像人類的意識智能系統將眨眼反射委派給一個小而快的無意識子系統一樣。

天神看到這里也是感到震驚,這就像他現在所掌握的分體一樣的道理。

雖然人類前面已經看到人腦中有意識的信息處理過程,似乎只是一個巨大的無意識的冰山的一角,但人類有理由相信,對未來的人工智能來說,情況可能會更加極端。

如果它擁有一個單一的意識,那其中發生的絕大部分信息處理過程可能都是無意識的。此外,雖然它的意識體驗可能非常復雜,但與其內部較小部分的快速活動相比,它們就像蝸牛一樣慢。

這使得前面提到的一個爭議變得更加尖銳了,這個爭議就是︰意識實體的組成部分是否也可以擁有獨立的意識?信息整合理論的預測是「不可以」。

這意味著如果未來一個巨大的人工智能擁有了意識,那麼它的幾乎所有信息處理過程都是無意識的。

這也意味著,如果一個由較小人工智能組成的文明突然提升了其交流能力,從而涌現出了一個有意識的蜂群智能,那麼那些速度更快的個體意識就會突然消失。

然而如果信息整合理論的預測是錯誤的,那麼蜂群心智就可以與那些較小的意識心智共存。的確甚至可以想象,意識可能組成了一個嵌套式的層級結構,從微觀尺度一直嵌套到宏觀的宇宙尺度。

正如人類前面所看到的那樣,人類人腦中的無意識信息處理過程似乎與心理學家所謂的「系統1」有關,也就是不費力氣、快速自動的思維方式。

比如,你的系統1可能會告訴你的意識,經過它對視覺輸入數據進行高度復雜的分析後,確定你的好朋友已經來到了你的面前,但它不會告訴你這個計算是如何進行的。

如果事實證明系統與意識之間的這種聯系是有效的,那人類會忍不住將這個術語推廣到人工智能,給人工智能也定義一個系統1,也就是所有委派給無意識子單元的快速程式化任務。

而那些需要花費力氣、緩慢且受控的全局思考過程,如果有意識的話,就可以稱為人工智能的系統2。

人類人類還擁有一種意識體驗,我稱為「系統0」,那就是原始而被動的感知,也就是當人類坐著不動或什麼也不想,只是靜靜觀察周遭世界時體驗到的感覺。

系統0、系統1和系統2的復雜程度似乎一個比一個高,但令人驚訝的是,系統0和系統2似乎都有意識,而只有中間的系統1是無意識的。

對此信息整合理論解釋說,系統0中的原始感官信息存儲在信息整合度非常高的網格狀大腦結構中;系統2的整合度也很高,因為它擁有反饋回路,在其中,你某一時刻意識到的所有信息都能影響你未來的大腦狀態。

然而正是這種「意識網格」的預測,引發了曙光組對信息整合理論的批評。

總而言之,如果一個理論能解決「相當難的問題」,而它又能通過嚴格的實驗驗證,從而使人類開始認真對待它的預測,那麼它也將大大縮小「未來有意識的人工智能可能體驗到什麼」這一「更難的問題」的選項範圍。

人類主觀體驗的某些方面顯然可以追溯到人類的進化,例如與自我保護和繁殖有關的情緒,比如吃東西、喝水、避免被殺等。

這意味著創造一個無法體會饑餓、口渴、恐懼和這些感質的人工智能應該是可能的。正如人類如今看到的那樣,如果一個高度智能的人工智能被設計出來並擁有一個野心勃勃的目標,不管這個目標是什麼,那它就可能產生自我保護的行為,以便能夠實現它的目標。

但是如果它們是人工智能社會的一部分,那它們在面對死亡時可能會缺乏人類那樣強烈的恐懼,因為它們只需將自己備份一下。

那麼即使它被消滅,失去的東西也並不多,最多是最近一次備份點到現在為止累積的記憶而已。

此外,人工智能之間可以隨意復制信息和軟件,這可能會削弱個性,而個性正是人類意識的特色,如果我與你事無巨細地共享著記憶和能力,那你和我之間還有什麼差別呢?

所以一群相距不遠的人工智能可能會感覺它們是同一個生物,擁有同一個蜂群智能。

溫馨提示︰方向鍵左右(← →)前後翻頁,上下(↑ ↓)上下滾用, 回車鍵:返回列表

投推薦票 上一章章節目錄下一章 加入書簽