人工智能已經入侵了人類文明的操作系統

[大衛選讀] 這一期經濟學人當中,有一篇文章吸引了我的注意。標題是:「人工智能已經入侵了人類文明的操作系統」。

近期 AI 工具一波波導入,大家開心擁抱各種研討會新知的時候,我覺得是值得靜下心來去思考的觀點。

重點摘要整理如下,全文連結:https://www.economist.com/by-invitation/2023/04/28/yuval-noah-harari-argues-that-ai-has-hacked-the-operating-system-of-human-civilisation


Yuval Noah Harari 認為,人工智能已經入侵了人類文明的操作系統。這位歷史學家和哲學家指出,會講故事的電腦,將徹底改變人類歷史的進程。

自從計算機時代以來,人工智能(AI) 的發展一直困擾著人類。迄今為止,這些恐懼主要集中在機器通過物理手段殺掉、奴役或取代人類。但在過去幾年中,出現了新的人工智能工具,從意想不到的方向威脅著人類文明的生存。人工智能已經取得了一些驚人的語言操作和生成能力,無論是文字、聲音還是圖像。

人工智能因此入侵了我們文明的操作系統。

語言是幾乎所有人類文化的基石。例如,人權並未刻在我們的DNA上。相反地,人權是我們通過講故事,和制定法律時,所創造的文化產物。上帝神佛也並非物質現實,而是我們通過創造神話,和撰寫經文時,所創造出的文化產物。

貨幣也是一種文化產物。紙幣只是五顏六色的紙張,而目前超過 90% 的貨幣甚至不是紙幣,它只是電腦計算機裡頭的一串數字。賦予貨幣價值的是故事,是銀行家、財政部長和加密貨幣大師們,所告訴我們的故事。Sam Bankman-Fried、Elizabeth Holmes 和 Bernie Madoff 在創造真實價值這方面並不擅長,但他們都是極具說服力的說故事者。

一旦 AI 比普通人更擅長講故事、譜曲、繪圖,以及撰寫法律和經文,那將會發生什麼事呢?

透過掌握語言,AI 甚至可以與人建立親密關係,並利用親密關係的力量改變我們的觀點和世界觀。

雖然目前沒有跡象顯示,人工智能具有任何自我意識或情感;但要與人類建立虛假的親密關係,只需要讓人類對 AI 產生情感依戀即可。

2022年6月,谷歌工程師布雷克·勒莫因(Blake Lemoine)公開聲稱,他正在研究的AI聊天機器人LaMDA已經具有了自我意識。這一個具有爭議的聲明讓他失去了工作。這個事件最有趣的地方不是勒莫因的聲明,那可能不是真的。但相反的,真正需要謹慎留意的地方是,他居然願意冒著失去豐厚工作的風險,去捍衛 AI 聊天機器人。

如果 AI 已經能影響人們,為它冒著失去工作的風險,還接下來還能影響人們去做什麼更驚人的事情?

即使不創造“虛假親密 fake intimacy”,新的AI工具也將對我們的觀點和世界觀產生巨大影響。人們可能會將某個 AI 顧問作為一站式、無所不知的神諭來使用。

難怪谷歌會感到恐慌。當我可以直接問神諭時,為什麼還要去搜索呢?新聞和廣告行業也應該感到恐慌。當我可以直接問神諭告訴我最新的新聞時,為什麼還要閱讀報紙呢?當我可以直接問神諭告訴我該買什麼時,廣告的目的又是什麼?

即便是上述這些情景,也沒有真正把握到大局。我們談論的可能是人類歷史的終結。注意,不是歷史的終結,而是人類主導歷史的終結。

當 AI 接管文化,開始創作故事、旋律、法律和宗教時,歷史的進程將會發生什麼變化?以前的工具,如印刷機和收音機,幫助傳播了人類的文化理念,但它們從未創造出自己的新文化理念。

人工智能有本質上的不同。人工智能可以創造全新的理念、全新的文化。

起初,人工智能可能會模仿它在成長初期所接受的人類原型。但隨著時間的推移,人工智能文化將更大膽地,走到人類從未涉足的領域。

幾千年來,人類一直生活在其他人的夢想之中。在未來的幾十年裡,我們可能會發現自己生活在一個外星智慧的夢想之中。

當然,人工智能的新力量也可以用於善良的目的。我們面臨的問題是如何確保新的人工智能工具用於善而不是惡。要做到這一點,我們首先需要了解這些工具的真正能力。

自1945年以來,我們知道核技術可以為人類提供廉價能源,但也可能在物理上摧毀人類文明。因此,我們重塑了整個國際秩序,以保護人類,並確保核技術主要用於良善的事情。

我們現在必須面對的是,一種新的大規模毀滅性武器,AI 可以摧毀我們的精神和社會世界。

我們現在仍然可以規範新的人工智能工具,但我們必須迅速行動。與核武器無法創造更強大的武器不同,人工智能可以自我創造出,呈指數級增長的、更強大的人工智能。

第一個至關重要的步驟是,要求在將強大的人工智能工具投放到公共領域之前進行嚴格的安全檢查。

正如製藥公司在研究新藥物的短期和長期副作用之前不能推出新藥物一樣,科技公司在讓新的人工智能工具變得安全之前不應推出它們。我們需要一個類似食品藥品管理局的新技術機構,而且期望它早就已經在運作。

在公共領域放緩人工智能的導入速度,會讓民主國家落後於更無情的專制政權嗎?恰恰相反。不受規範的人工智能部署將造成社會混亂,這將有利於獨裁者,並破壞民主。

民主是一場對話,而對話依賴語言。當人工智能破解語言時,它可能會破壞我們進行有意義對話的能力,從而破壞民主。

我們現在像是,剛在地球上遇到了一個外星智能。除了它可能會摧毀我們的文明之外,我們對它知之甚少。我們應該制止在公共領域不負責任地部署人工智能工具,並在人工智能規範我們之前,對其進行規範。

我建議的第一條規定是,強制要求人工智能披露它是人工智能。如果我和某人進行對話,無法分辨對方是人類還是人工智能,那就是民主的終結。

我說,這篇文章是由人類生成的。

呃,你真的確定嗎?

作者:

David 陳文剛

長期專注於UX設計創新,專長為design coaching, team facilitation & consulting. 現為AJA Creative 使用經驗總監,UXTW 台灣使用者經驗設計協會 共同發起人。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *