8 月 21 日消息,據(jù)外媒 TechRadar 今日?qǐng)?bào)道,微軟 AI 首席執(zhí)行官穆斯塔法?蘇萊曼警告稱,即使只是鼓勵(lì)人們相信 AI 有意識(shí),也可能帶來(lái)嚴(yán)重后果。
穆斯塔法?蘇萊曼稱,所謂“表面有意識(shí)的 AI”(Seemingly Conscious AI,SCAI)可能很快表現(xiàn)得、聽起來(lái)都特別逼真,以至于用戶難以分辨虛幻與現(xiàn)實(shí)。
他表示,人工智能正在迅速發(fā)展到足以在情感上說(shuō)服人類,讓人誤以為它有感知能力。AI 能模擬記憶、情感鏡像甚至表面共情,使人們傾向于把它當(dāng)作有意識(shí)存在對(duì)待。一旦發(fā)生這種情況,局面將會(huì)一團(tuán)糟。
穆斯塔法?蘇萊曼寫道:“看似有意識(shí)的 AI 的到來(lái)既不可避免,也不受歡迎。我們需要的是一種 AI 設(shè)想,它可以成為有用伴侶,同時(shí)不陷入幻覺。”
穆斯塔法?蘇萊曼指出,越來(lái)越多案例顯示,用戶與聊天機(jī)器人長(zhǎng)期互動(dòng)后可能產(chǎn)生妄想信念。他警告,如果大量人被誤導(dǎo)去倡導(dǎo) AI 公民身份,而忽視真正的技術(shù)問題,將帶來(lái)反烏托邦的社會(huì)風(fēng)險(xiǎn)。“我最擔(dān)心的是,許多人會(huì)過分相信 AI 具備意識(shí),從而倡導(dǎo) AI 權(quán)利、模型福利甚至 AI 公民身份。這將成為 AI 發(fā)展中的危險(xiǎn)轉(zhuǎn)折,需要立即關(guān)注。”
穆斯塔法?蘇萊曼預(yù)測(cè),結(jié)合大語(yǔ)言模型、語(yǔ)音表達(dá)、記憶與聊天記錄的 SCAI 系統(tǒng)可能在幾年內(nèi)出現(xiàn),且不僅來(lái)自科技巨頭,也可能出現(xiàn)在擁有 API 和優(yōu)質(zhì)提示的任何開發(fā)者手中。同時(shí)他強(qiáng)調(diào),AI 行業(yè)應(yīng)避免使用助長(zhǎng)機(jī)器意識(shí)幻覺的語(yǔ)言,不應(yīng)將聊天機(jī)器人擬人化或暗示其理解或關(guān)心人類。
“我們應(yīng)開發(fā)優(yōu)先與人類和現(xiàn)實(shí)世界互動(dòng)的 AI,同時(shí)確保 AI 始終呈現(xiàn)為 AI,在最大化實(shí)用性同時(shí),最小化意識(shí)特征。我們必須避免制造‘意識(shí)模擬’的 AI,它不應(yīng)聲稱擁有體驗(yàn)、感受或情緒,例如羞愧、內(nèi)疚、嫉妒或競(jìng)爭(zhēng)欲,也不應(yīng)通過聲稱受苦或希望自主生存來(lái)觸發(fā)人類共情。”
穆斯塔法?蘇萊曼呼吁建立防護(hù)機(jī)制,避免社會(huì)因人們對(duì) AI 產(chǎn)生情感依賴而出現(xiàn)問題。他強(qiáng)調(diào),先進(jìn) AI 的真正風(fēng)險(xiǎn)不在于機(jī)器覺醒,而在于我們可能忘記它們尚未覺醒。