AI資安風險猶存 專家:不要說出祕密

簡嘉佑 2023/12/27 15:37 點閱 2734 次
示意圖。學者表示,向聊天機器人分享私人資訊或談心是「非常不明智」的行為,因為任何資訊都會成為訓練AI的材料。(網路截圖)
示意圖。學者表示,向聊天機器人分享私人資訊或談心是「非常不明智」的行為,因為任何資訊都會成為訓練AI的材料。(網路截圖)

【台灣醒報記者簡嘉佑綜合報導】不要跟聊天機器人說你的祕密!專家指出,生成式人工智慧有賴於數據訓練,但用戶透露的內容也會成為訓練數據,民眾想跟人工智慧談心,不僅得不到公允的回答,還有可能成為人工智慧的訓練材料。

不跟AI說祕密

衛報》報導,牛津大學人工智慧教授伍德里吉指出,向聊天機器人分享私人資訊或談心是「非常不明智」的行為,因為任何資訊都會成為訓練AI的材料。他更補充說,用戶也不會期待會有什麼公允的回應,因為人工智慧常常只能「告訴你你想聽的」。

他強調,雖然人類試圖在人工智慧尋找「意識」的存在,但實際上相當徒勞,「因為人工智慧沒有同理心,更沒有同情心,該技術的根本就是告訴你,你想聽的話」。伍德里吉表示,考慮到人工智慧的工作原理,如果民眾向他吐露心事,就會成為訓練材料,且幾乎沒有辦法取回資料。

資安仍有風險

衛報》報導,其他對人工智慧的擔憂,也包括 ChatGPT 等生成式人工智慧,可能會給使用者提供糟糕的醫療建議,或可能會在它們所訓練的資料中出現偏差。

伍德里吉認為,目前應對上述人工智慧風險的方式就是「鼓勵懷疑」,並確保足夠透明度與問責機制。

目前已經有不少公司在收集和使用資料時,出現隱私侵犯的疑慮。專家擔心,隨著人工智慧發展,這種情況可能會增加,尤其AI人工智慧平台仰賴工程師撰寫程式,並餵養大量資料,因此仍舊存在著資訊安全的漏洞。

大多數企業都試著強化自身的自安防衛措施,如強化檢測系統、引入「零信任」技術,在運用人工智慧時強化加密與數據保護。