人工智能的“遺忘”與人類不同,這也是該領域面臨的一大挑戰。據《連線》雜志網站近日消息稱,作為計算機科學中的新興領域,機器學習研究者們已經開始探索在AI中誘發“選擇性失憶”的方法,其目標是在不影響模型性能的前提下,從機器學習中刪除特定人員或點的敏感數據。如果未來能夠實現,那么這一概念將幫助人們更好地控制數據。
機器學習宗旨是使用計算機作為工具并致力于真實、實時的模擬人類學習方式,其可以將現有內容進行知識結構劃分,再廣泛應用于解決工程應用和科學領域的復雜問題?,F在,機器學習被視作最具智能特征的研究領域,但科學家已經提出了新的問題:機器會學習,但它會遺忘嗎?實際上,它們的學習方式雖然在效仿人類,但“遺忘”方式卻與我們大不一樣。
機器學習的“遺忘”,對于有需求的用戶,也就是那些對他們在網上分享的內容感到后悔的人來說,其實很直觀。但從技術層面來講,消除特定數據點影響的傳統方法,是“從零開始”重建系統,這是一項代價可能相當高昂的工作,令企業幾乎難以承受。具體來說,某些地區的用戶如果他們對披露的內容改變了主意,其實是有權要求公司刪除他們的數據的。但徹底抹除這件事很難實現,因為一旦經過訓練,機器學習系統就不會輕易改變,甚至就連訓練者們自己,也不清楚系統是如何掌握這些能力的,因為他們并不能完全理解自己調試或訓練出的算法。
2019年有科學家提出可以將機器學習項目的源數據分成多個部分,以實現對單個數據點的“遺忘”,但最近已被證明存在缺陷。如果提交的刪除請求以特定的順序出現,無論是偶然的還是惡意的,機器學習系統都會崩潰。因此,要實現“選擇性失憶”這個概念,科學家可能需要在計算機科學方面做出全新探索。
“當他們(用戶)要求刪除數據時,我們能否消除他們數據的所有影響,同時避免從頭開始重新訓練的全部成本?”賓夕法尼亞大學機器學習教授亞倫·羅斯表示,他們目前進行的研究就是希望能找到一些“中間地帶”?;蛟S在不久的將來,有望找出一條既可以控制數據也可以保護由數據產生的價值的發展道路。
總編輯圈點
其實,不只是機器面臨“選擇性失憶”的難題,人類同樣也還沒掌握這項技能。遺忘,往往發生在不經意間,是被動的。人也無法精準選擇記住什么,忘記什么,否則,哪來那么多“舉杯消愁愁更愁”。機器學習模型的神經網絡訓練過程,猶如“煉丹”。你很難知道丹藥具體是靠什么煉成的,所以也就不敢輕易改變火候和進入爐子的元素??赡?,得必須非常了解機器學習的路徑,才能實現數據的精準抽離??傊@確實是一個有待解決但靠常規思路又非常棘手的問題。