[大衛選讀] 關於人工智慧的發展與影響,近期有很多思辨。像是AI Is a False God, Artificial intelligence is losing hype等,都在講現在看到的人工智慧,只是一種假象。看似充滿智慧的背後,只是玩弄了人類熟知的表達形式,並不代表真知卓見與創新巨變。
相較之下,哈拉瑞 (Yuval Noah Harari) 的新書摘要,一篇名為《永遠不要召喚你無法控制的力量》的文章,則更能引起我的深度反思。
哈拉瑞是著名的歷史學者、哲學家暨暢銷作者,著有人類大歷史三部曲。他不從短期技術分析著手,更關注人類歷史長期的發展與演變趨勢。他認為人工智慧並不等同於以往的技術革新,不只是個工具,而是歷史上第一個能夠自己做決定和創造新想法的技術。
以 AlphaGo 的第 37 手棋作為關鍵分界點,人工智慧的特質,包含越來越不依賴人造的外星本質 (the alien nature of AI),以及不可理解性 (the unfathomability of AI),對於人類來說都是前所未有的挑戰甚至威脅。
往後如果有幸,人類沒有發動大規模戰爭,毀滅掉了自己,也勢必要面臨人工智慧壓倒性的挑戰。團結一致是唯一的機會,不然召喚出無法控制的力量之後,就很難抵禦我們孕育出來的超高等智慧了。
文章很長,值得細讀思考。內容整理如下,原文連結:https://www.theguardian.com/technology/article/2024/aug/24/yuval-noah-harari-ai-book-extract-nexus

永遠不要召喚你無法控制的力量 Never summon a power you can’t control
忘記好萊塢電影演的魔鬼終結者機器人吧,人工智慧的現實情況,遠比這些電影更加危險。
縱觀歷史,許多傳統思想都認為人性中存在某種致命的缺陷,誘使我們追求我們不知該如何處理的力量。
例如希臘神話中,法厄同妄圖駕駛太陽神赫利俄斯的太陽戰車,結果失控引發災難。兩千年後,當工業革命邁出第一步,機器開始在許多任務中取代人類時,歌德的警世故事《魔法師的學徒》講述了學徒使用魔法讓掃帚取水,卻無法加以控制而釀成大洪水。這兩個故事都警示人類:不要貿然召喚或使用超出自身掌控能力的力量。
人工智慧對人類構成前所未有的威脅,因為它是歷史上第一個能夠自己做決定和創造新想法的技術 (the first technology in history that can make decisions and create new ideas by itself)
以前所有的發明都是為人類賦能,因為無論新工具有多麼強大,使用它的決定仍然掌握在我們手中。核彈不會自己決定殺死誰,也無法改進自己或自行發明出更強大的炸彈。
相比之下,自主無人機可以自己決定殺死誰,而 AI 可以創造新穎的炸彈設計、前所未有的軍事策略和更好的人工智慧。
人工智慧不只是工具,它是一個智能個體 (AI isn’t a tool – it’s an agent)。人工智慧最大的威脅在於,我們正在召喚無數個新的強大智能個體到地球上,它們可能比我們更聰明、更有想像力,而我們並不完全理解或控制它們。
AI 過往被用來當做人工智慧 (artificial intelligence) 的縮寫,但也許將其視為外星智慧 (alien intelligence) 的縮寫更為恰當
隨著人工智慧的發展,在依賴人類設計的意義層面上,它變得越來越不「人造」,反而更加地「外星」。
許多人試圖用「人類水平智能」的標準來衡量甚至定義人工智慧,我覺得這樣的標準有很深的誤導性。這就像用「鳥類水平般的飛行」標準來定義和評估飛機一樣,這兩者間已經是完全不同的尺度。
人工智慧並不是在朝著人類水平智能前進。它正在發展一種更像是外星類型的智能。
現在的人工智慧已經能夠自己創作藝術和進行科學發現。在未來幾十年內,它很可能獲得創造新生命形式的能力 (AI will gain the ability even to create new life forms)。無論是通過編寫基因代碼還是發明使無機實體生動起來的無機代碼。
因此,人工智慧可能會改變不僅是我們物種的歷史,而且是所有生命形式的進化進程 (not just of our species’ history but of the evolution of all life forms)。
閱讀全文 永遠不要召喚你無法控制的力量 – Never summon a power you can’t control