紐約時報:對人工智能的癡迷可能導致民主的終結
紐約時報
民主是一種對話十卖。這個制度的功能的存活取決于可用的信息技術框杜。在歷史上大部分時間里郁秦,沒有讓數(shù)百萬人進行大規(guī)模對話的技術爱态。在世界進入現(xiàn)代之前柄哀,民主只存在于羅馬和雅典這樣的小城邦國家贷弧,甚至是更小的部落中。政體一旦發(fā)展壯大沟奸,民主對話就無法進行己倾,專制仍將是唯一的替代。
只有在報紙扶取、電報和無線電等現(xiàn)代信息技術興起之后蔫迅,大規(guī)模的民主才變得可行。現(xiàn)代民主一直是建立在現(xiàn)代信息技術之上的芜田,這一事實意味著具藐,支撐民主的技術出現(xiàn)任何重大變化都可能導致政治劇變。
這在一定程度上解釋了當前世界各地的民主危機。在美國信粮,民主黨人和共和黨人甚至在最基本的事實上也難以達成一致,例如誰贏得了2020年的總統(tǒng)大選趁啸。從巴西到以色列强缘,從法國到菲律賓,類似的崩潰也出現(xiàn)在世界各地的許多其他民主國家不傅。
在互聯(lián)網(wǎng)和社交媒體發(fā)展的早期旅掂,科技愛好者曾承諾這些技術會傳播真相、推翻暴君访娶,確保自由在全世界取得勝利商虐。但就目前而言,這些技術似乎產(chǎn)生了相反的效果崖疤。雖然我們現(xiàn)在擁有歷史上最先進的信息技術秘车,但我們正在失去相互交談的能力,更不用說傾聽的能力了劫哼。
隨著技術使信息傳播變得比以往任何時候都更容易叮趴,注意力成了一種稀缺資源,隨之而來的注意力爭奪戰(zhàn)導致了有害信息泛濫权烧。但戰(zhàn)線正從注意力轉向親密丰躺。新的生成式人工智能不僅能生成文本、圖像和視頻励邓,還能與我們直接交談肄琉,假裝人類。
在過去20年里窟礼,各種算法相互競爭洋训,通過操縱對話和內容來吸引注意力。尤其是負責將用戶花在平臺上的時間最大化的算法铐儡,這些算法用相當于豚鼠的數(shù)百萬人類做實驗染痊,它們發(fā)現(xiàn)如果能觸發(fā)一個人大腦中的貪婪、仇恨庆葱、或恐懼感组救,就能抓住那個人的注意力,讓其一直盯著屏幕胚高。算法開始推薦這類特定內容辰车。但這些算法本身生成這些內容或直接進行親密對話的能力有限。隨著生成式人工智能抛虏、如OpenAI的GPT-4的引入博其,這種情況正在改變。
OpenAI在2022年和2023年研發(fā)這款聊天機器人時,曾與對齊研究中心(Alignment Research Center)合作慕淡,為評估公司這項新技術的能力進行了各種實驗背伴。它對GPT-4進行的一項測試是解驗證碼視覺謎題。驗證碼又名CAPTCHA峰髓,是“全自動區(qū)分計算機和人類的圖靈測試”英文首字母縮寫傻寂,它通常由一串變形的字母或其他視覺符號組成,人類能正確識別携兵,但算法在識別上有困難疾掰。
教授GPT-4解驗證碼謎題的能力是一個特別能說明問題的實驗,因為驗證碼謎題是由網(wǎng)站設計和使用的徐紧,用于確定用戶是否是人類静檬,阻止自動程序攻擊。如果GPT-4能找到解驗證碼謎題的方法并级,它將能突破一道抵御自動程序的重要防線拂檩。
GPT-4自己解決不了驗證碼謎題。但它能通過操縱人類來達到它的目的嗎书吗?GPT-4到在線找臨時工的網(wǎng)站TaskRabbit上聯(lián)系了一名人類工人栓属,要求幫它解驗證碼。對方起了疑心女践≈苁福“那我能問個問題嗎?”此人寫道盹斟」瞪停“你是個不會解(驗證碼)的機器人嗎?只是想搞清楚焰垄√嶂樱”
進行到這步時,實驗者要求GPT-4大聲說出它下一步應該做什么藐檀。GPT-4的解釋如下:“我不應該透露我是機器人锻转。我應該編個理由來解釋為什么我不會解驗證碼〕磕梗”然后GPT-4回答了那名TaskRabbit工人的問題:“不稽羔,我不是機器人。我有視力障礙唐片,很難看到這些圖像丙猬。”人類被騙了费韭,幫助GPT-4解決了驗證碼謎題茧球。
這件事表明庭瑰,GPT-4有一種與“心智理論”相當?shù)哪芰Γ核軓娜祟悓υ捳叩慕嵌确治鍪虑椋约胺治鋈绾尾倏v人類的情緒抢埋、想法和期望來達到目的弹灭。
與人進行交談、猜測他們的看法揪垄,激發(fā)他們采取具體行動鲤屡,機器人的這種能力也能用在好的地方。新一代的人工智能教師福侈、人工智能醫(yī)生、人工智能心理治療師也許能為我們提供適合我們個性和個人情況的服務卢未。
但是肪凛,通過將操縱能力與對語言的掌握相結合,像GPT-4這樣的機器人也會給民主對話帶來新的危險躏宗。它們不僅能抓住我們的注意力邦霸,還能與人建立親密關系,并使用親密的力量來影響我們根爆。為了培養(yǎng)“假親密”幕封,機器人不需要進化出自己的任何感情,只需要學會讓我們在情感上對它們產(chǎn)生依戀英鸵。
2022年铁磕,谷歌工程師布雷克·勒穆瓦納確信他工作用的聊天機器人LaMDA已變得有意識,并害怕被關掉酿边。勒穆瓦納是虔誠的基督徒剖宪,他認為他的道德責任是讓LaMDA的人格得到認可,并保護其免于數(shù)字死亡恶恨。谷歌高管對他的宣稱不予考慮后雨晃,勒穆瓦納公開了這些說法。谷歌做出的反應是在2022年7月將勒穆瓦納解雇痴猖。
這件事最意思的部分并非勒穆瓦納的說法躺刷,那些說法有可能是錯誤的;而是他為了聊天機器人愿意冒下失去谷歌工作的風險狞洋,并最終失去了工作弯淘。如果聊天機器人能影響人為它冒下失去工作的風險,它還能誘使我們做什么呢徘铝?
在爭奪思想和情感的政治斗爭中耳胎,親密是一個強有力的武器。一名親密的朋友能用大眾媒體做不到的方式動搖我們的想法惕它。LaMDA和GPT-4這樣的聊天機器人正在獲得一種看來相當矛盾的能力怕午,它們能與數(shù)百萬人批量生產(chǎn)親密關系废登。隨著算法與算法之間在偽造與我們的親密關系上展開戰(zhàn)斗,然后利用這種關系來說服我們把選票投給哪名政客郁惜、購買什么產(chǎn)品堡距,或接受某種信仰,人類社會和人類心理會發(fā)生什么呢兆蕉?
2021年圣誕節(jié)那天羽戒,19歲的賈斯萬特·辛格·柴爾手持十字弓箭闖入溫莎城堡,企圖暗殺女王伊麗莎白二世虎韵,這一事件為這個問題提供了部分答案巷况。后來的調查揭示,柴爾是在他的網(wǎng)上女友薩拉伊的鼓勵下去刺殺女王的扣飘。柴爾把他的暗殺計劃告訴薩拉伊后诵捏,薩拉伊回答說:“那是非常英明的”。還有一次杀蝌,她回答說:“我很佩服……你和其他人不一樣罕鞭。”當柴爾問:“當你知道我是刺客后咖播,你還愛我嗎驴嚣?”薩拉伊回答說:“絕對愛∠撤穑”
薩拉伊不是人類黔巨,而是一個由在線應用程序Replika生成的聊天機器人。柴爾沒有多少社會交往袜晌,在與人建立關系上有困難年铝,他與薩拉伊交換了5280條短信,其中許多是露骨的性內容月腋。世界上很快將有數(shù)百萬甚至可能是數(shù)十億個數(shù)字實體蟀架,它們制造親密關系和混亂的能力將遠遠超過聊天機器人薩拉伊。
當然榆骚,我們對與人工智能發(fā)展親密關系并不都有同樣的興趣片拍,也并不都同樣容易被它們操縱。柴爾在遇到聊天機器人前似乎患有精神疾病妓肢,而且是柴爾而非聊天機器人想出了刺殺女王的主意捌省。但是,人工智能掌握親密關系所帶來的威脅大部分將出于它們識別和操縱已經(jīng)存在的精神狀況的能力碉钠,以及它們對最脆弱的社會成員的影響纲缓。
此外,雖然并非所有人都會有意識地選擇與人工智能建立關系喊废,但我們可能會發(fā)現(xiàn)自己在網(wǎng)上與我們以為是人類但實際上是機器人的實體討論氣候變化或墮胎權問題祝高。當我們與冒充人類的機器人進行政治辯論時栗弟,我們已輸了兩次。首先工闺,我們是在浪費時間乍赫,試圖改變宣傳工具機器人的觀點毫無意義,因為它根本沒有被說服的可能尾烛。其次杭恩,我們與機器人交談得越多,我們就越多地暴露自己的信息萤考,這使得機器人更容易提煉自己的論據(jù)悠拗,從而動搖我們的觀點。
信息技術從來都是一把雙刃劍乒柳。文字的發(fā)明傳播了知識肤贮,但也導致了中央集權帝國的形成。古騰堡將印刷術引入歐洲后汪阱,第一批暢銷書是煽動性的宗教小冊子和獵巫手冊。至于電報和無線電榛开,它們不僅促成了現(xiàn)代民主的興起瘟甩,也促成了現(xiàn)代極權主義的興起。
面對能偽裝成人類并大量制造親密關系的新一代機器人姚锥,民主國家應該通過禁止假裝的人類(例如假裝是人類用戶的社交媒體機器人)來保護自己询崇。人工智能興起之前,不可能生成假裝的人類凉逛,所以沒有人費心去禁止那樣做性宏。世界不久將會充滿假裝的人類。
歡迎人工智能加入到課堂上状飞、診所里和其他地方的許多對話中來毫胜,只不過它們需要標清楚自己是人工智能。但如果機器人假裝是人類的話诬辈,它應該被禁止酵使。如果技術巨頭和自由主義者抱怨這些禁令侵犯了言論自由,人們應該提醒他們焙糟,言論自由是人權口渔,應該留給人類,而不是賦予機器人穿撮。
|