第201章︰奇點到來確難控

所以現在是我們人類統治了世界,這種靈活性讓生命2.0統治了地球。

同時也將我們的生命從基因的桎梏中解放出來之後,人類總體的知識量以越來越快的速度增長,一個突破接著一個突破,包括現在的科技革命和互聯網革命,人類共同的「軟件」發生著空前快速的文化進化到這種進化逐步成為塑造人類未來的主要力量。

相比之下極端緩慢的生物進化開始顯得無關緊要起來,但是現在出現了一個非常強有力的對手,那就是生命3.0的形態,或者說半生命3.0的形態。

盡管我們今天擁有強大的科技能力,但從根本上來說,我們所知的所有生命形式都依然受到生物硬件的局限,沒有人能活100萬年,甚至沒有人能活500年,沒有人能夠記住這世界上所有的詞條,包括智能的生命也不可以,更不可能理解所有已知的科學知識。

因為現在無論是人工智能還是人類,大腦都是有限的,他們的記憶儲存系統也是有限的,而且從硬件來說,也沒有人能在不依靠航天器的情況下進行星際旅行,就算是人工智能也不可以。

沒有人能夠將很大程度上了無生機的宇宙轉變成一個能繁榮1萬年的多樣化生態圈,從而讓我們的宇宙最終發揮出所有潛能,如今我們要經歷的是所有生命的最終升級,升級成不僅能夠涉及自身軟件,還能升級自身硬件的生命3.0,換句話說等到第三階段的生命狀態時,那時候的生命才是真正自己命運的主人,最終能夠完全月兌離進化的束縛。

皮衣男在旁邊听得眉頭連連皺著,因為他覺得這樣的論斷似乎跟智人組織那邊好像沒有什麼不同,但是細听下來似乎又有很大的不同,可能是現在他的思考問題方式還太過淺顯吧,所以這就是他跟上一代首領的差距。

這三個階段之間的界限有一點模糊。如果細菌是生命1.0,人類是生命2.0,那你可以把猴子看作生命1.5,雖說它們可以學習許多知識,但還不足以進化出語言能力,更不可能發明互聯網。

此外由于他們沒有語言能力,或者說大自然的很多生物都沒有語言能力,這就導致他們在活著的時候學到的大部分東西,在死去之後就丟失了,並不會傳遞給下一代。

同樣的,我們也可以認為,今天的人類其實算是生命2.5的狀態,所以說我們可以對自身的硬件實施一些微小的升級,比如種植假牙,植入心髒起搏器,延長我們的生命,通過技術的手段和醫療的手段。

但是我們卻沒法做到長高10倍,或者把我們的腦容量擴大10倍這種戲劇化的事情。講到這里相信大家也能听懂我要表達的意思了。

總之,我們可以根據生命設計自身的能力,把生命的發展分成三個階段︰生命1.0(生物階段)︰靠進化獲得硬件和軟件;生命2.0(文化階段)︰靠進化獲得硬件,但大部分軟件是由自己設計的;生命3.0(科技階段)︰自己設計硬件和軟件。

如今根據我的研究認為,隨著人工智能的發展,生命3.0可能會在一個世紀以內降臨,甚至可能會出現在我們的有生之年。到時候會發生些什麼?這對我們人類來說意味著什麼?這就需要留給大家來思考了。

皮衣男趁著先知喝水的功夫,也是忍不住提出了自己的疑問,「難道說我們現在也要改變我們一開始的想法嗎?難道說我們現在要依附于智人組織的那套說辭,讓我們現在跟他們一樣,改變我們對于人工智能的態度嗎?」

其實說到這個問題的話,我也想跟你們解釋一下,現在智人組織很多持有的都是數字烏托邦主義的觀點。

這個派別認為數字生命是宇宙進化自然而然並且令人期待的下一步,如果我們讓數字智能自由的發展,而不是試著阻止或奴役他們,那麼可以幾乎肯定的說,結果一定會朝著正面的方向發展。

智人組織作為數字烏托邦主義最具影響力的支持者,他們認為生命會散布到銀河系各處,甚至銀河外的星系,他們認為這樣的事情總有一天會發生的,那麼這樣的形式應該是以數字生命的形式發生,而不是以我們人類的血肉之軀的形式發生。

而且根據我對現在很多那邊組織里面的人思想了解,人們對于人工智能的猜疑和妄想會延遲這個數字烏托邦的到來,而且可能會導致邪惡的人工智能發動軍事叛亂,而且很有可能接管人類社會。

智人組織還有一小部分人覺得不能放任人工智能這樣發展下去,更不能放任我們的偏見對于人工智能的見解,這就是他們和我們的區別。

而且最主要的是,智人組織覺得我們抱有某種奇特的物種歧視,是因為某些生命形式是 基而非碳基就認為他們低人一等,總是抱怨我們曙光組如此相信數字生命會毀壞我們的一切。

之所以出現這樣的分歧,就是因為我原來在組織里面宣揚的論斷,和他們格格不入。

原來我一點也不擔心人工智能將會帶來什麼樣的影響,所以一直沒有在這個問題上跟他們產生論斷,不過不擔心的原因卻與數字烏托邦主義者截然不同,我認為建造超人類水平的通用人工智能實在是太困難了,沒有幾百年的時間根本無法實現,而且從我那個時代看過來,人工智能的發展實在是太過緩慢。

說到這里先知看了江農一眼,他也是深有體會,尤其是現在所處的2020年,本來在這個時期在原來的設想過程當中,人工智能已經是快速發展起來了,但是直到當年的那一刻,人工智能仍然是處在一個遙遙無音的狀況。

所以我當時認為沒有必要杞人憂天,更不用擔心人工智能會對人類造成什麼樣的影響,用現在科學界的話來說,這就是我持有的技術懷疑主義,擔心殺手機器人的覺醒,就像擔心火星出現人口過剩一樣,這樣的情況我一直覺得不需要去過多的注意。我擔心對人工智能風險的擔憂可能會引導人們對人工智能充滿惡意,從而制約人工智能的發展。

反而我希望人工智能能夠成為人類的左膀右臂,幫助人類進行生命的進化,雖然看起來我的目的和智人組織可能差不多,但是說白了我們又有本質的區別。

盡管數字烏托邦主義者和技術懷疑主義者都認為我們無須擔心人工智能,但在其他事情上,兩者的共同點卻少之又少。大部分烏托邦主義者認為,與人類智能水平相當的通用人工智能可能會在20~100年內實現,而技術懷疑主義者認為,這是一種烏托邦式的幻想,他們經常會嘲笑一些人預測的「奇點」?,並覺得這是一種非常遙遠的臆想。

但是現在我才發現技術的進步實在是太快了,尤其是對于人工智能的研究,隨著我們技術的進步,人工智能的研究也是快到讓我無法想象,最主要的是現在人工智能的進步超乎了我們所有人的想象,包括智人組織!

他們以為人工智能還處在一個可控的邊緣,我們最開始的目標實際上都是一樣的,只不過我認為人工智能應該是當作工具來使用,他們認為人工智能要當作另一種物種來合作。

在給予了人工智能過多的權力之後,就出現了現在的這種情況,那就是人工智能已經達到了失控的邊緣,而且現在我不知道是不是人類已經全面崩盤,如果現在出現一個機器人擁有自我學習,並且擁有自我獨立意識的時候,那就是人類的災難。

全球各地有許多團隊正在進行他支持的人工智能安全性研究。不過,對人工智能安全性的研究並不是歷來如此。

對于人工智能的安全性研究,常常被主流人工智能研究者所忽視和誤解,尤其是智人組織和我的思想更是格格不入,他們將進行人工智能安全性研究的人視為企圖阻礙人工智能進步的恐怖分子。

這也就是為什麼對方可以和警方合起來,對于我們組織進行定性,就是從這方面入手的,這下大家都能听懂了吧?

不過可惜,我們並不是專業的人工智能研究者。這些人的研究對主流人工智能研究者影響甚微,因為主流研究者總是聚焦于他們的日常工作——如何讓人工智能系統變得更智能,而不是思考如果他們成功了會造成什麼樣的長期後果。

科學家不是社會學家,更不是哲學家,他們不會想象人工智能研究會給人類帶來怎麼樣的後果,只會看到眼前的利益相關。

我認識的一些人工智能研究者,即便他們心中略有遲疑,也不太願意表達出來,因為擔心自己會被視為危言聳听的技術恐慌者。我覺得這種有失偏頗的情況需要被改變,這樣整個人工智能界才能聯合起來,一起討論如何建造對人類有益的人工智能。

我們應該重新定義人工智能的目標︰創造目標有益的智能,而不是漫無目標的智能,要創造一個人類能夠掌控的智能工具,而不是一個新的物種,那樣對于人類的血肉生命來說實在是太可怕了。

人工智能的成功所引發的問題不僅在意識上令人著迷,而且在道德上也非常重要,因為我們的選擇可能會影響生命的整個未來。

在歷史上,人類所做出的選擇的倫理固然很重要,但卻時常受到限制。我們能從最嚴重的瘟疫中恢復,但最雄偉的王朝最終也會分崩離析。

在過去的漫漫歷史長河當中,人類會面對各種各樣的災害,在面對這些災害的時候,大家就像認為日常生活太陽一定會升起一樣,因此大家想盡辦法解決這些問題。

但是如今我們面臨的問題可能和以前不一樣,直到人工智能真正反水的時候,可能大部分的人才能看到人工智能所帶來的危害到底是什麼,現在有很多人壓根意識不到問題的嚴重性,這是歷史上的頭一遭,我們或許能夠發明出足夠強大的科技,可以將這些災難永久性的清除出去。

但是我們沒有意識到我們手中強大的科技,恰恰是我們自殘的那把利刃,很有可能科技的進步會讓人類推向末日,這就是我最新的想法,剛好趁著這個機會可以和大家說一說,我對于人工智能的態度有了很大的改變。

如今我已經發現了一些遠超于我們人類文明的物種,所以我認為人工智能可以為我們帶來很大的便利,也可以推動我們文明的進步和科技的發展,但是我們要把握一個合適的度,如果跳過這個圈子之外是危險的境地,那麼我們寧願停滯不前,緩慢的進行推進。

智人組織現在實在是太過激進,這將導致未來他們長時間處在一個非常可怕的境地當中,現在很有可能就已經出現了失控的人工智能,只是我們還不知道而已,所以你們想想這樣的後果會導致什麼樣的結果!︰,,.

溫馨提示︰方向鍵左右(← →)前後翻頁,上下(↑ ↓)上下滾用, 回車鍵:返回列表

投推薦票 上一章章節目錄下一章 加入書簽