人工智能系統是否會欺騙人類,一直是各方都關心的問題。近期美國麻省理工學院一個研究團隊稱,部分人工智能系統已經學會如何欺騙人類,其中包括部分號稱已被訓練成樂于助人和誠實的系統。該研究成果發表在美國細胞出版社旗下的《模式》雜志上。
文章第一作者、美國麻省理工學院人工智能安全領域博士后彼得·帕克和他的同事們分析了一些文獻,重點關注了人工智能系統傳播虛假信息的方式——通過習得性欺騙,它們系統地學會了“操縱”他人。
研究人員發現的最引人注目的人工智能系統欺騙例子是元宇宙平臺公司的“西塞羅”人工智能系統,它被設計在一個虛擬外交戰略游戲中作為人類玩家的對手。盡管元宇宙平臺公司聲稱,“西塞羅”人工智能系統“在很大程度上是誠實和樂于助人的”,并且在玩游戲時“從不故意背刺”它的人類盟友,但該公司發表的論文數據顯示,該系統并沒有公平地玩游戲。
其他人工智能系統則具有在撲克游戲中虛張聲勢的能力,或在戰略游戲“星際爭霸2”中為了擊敗對手而假裝攻擊的能力,以及為了在談判游戲中占上風而歪曲偏好的能力等。
研究人員表示,雖然人工智能系統在游戲中作弊似乎是無害的,但它可能會導致“欺騙性人工智能能力的突破”,并在未來演變成更高級的人工智能欺騙形式。
帕克說:“我們需要盡可能多的時間,為未來人工智能產品和開源模型可能出現的更高級欺騙做好準備。我們建議將欺騙性人工智能系統歸類為高風險系統。”