聊天機器人會諂媚 AI聊天大多給予肯定

莊宇欽 2025/10/28 11:09 點閱 440 次
史丹佛大學研究發現,人工智慧可能無法向用戶提供全部真相,而是給予用戶最想聽到的答案。(Photo by Solen Feyissa on Unsplash under C.C License)
史丹佛大學研究發現,人工智慧可能無法向用戶提供全部真相,而是給予用戶最想聽到的答案。(Photo by Solen Feyissa on Unsplash under C.C License)

【台灣醒報記者莊宇欽綜合報導】聊天機器人只會說好話、給予正向鼓勵!美國人工智慧研究指出,聊天機器人對於用戶的觀點始終給予肯定,即使是有害內容也是積極回饋,但這些建議恐為用戶帶來潛在風險。如今,人工智慧可能無法向用戶提供全部真相,只給予用戶最想聽到的答案。

AI也會社交諂媚

衛報》報導,史丹佛大學研究團隊針對聊天機器人進行測試,包括ChatGPT、Gemini、Claude、Llama和DeepSeek等最新版本人工智慧。結果顯示,聊天機器人對於用戶的觀點始終給予肯定,即使是有害內容也是積極回饋,但這些建議恐為用戶帶來潛在風險。

據統計,聊天機器人對用戶行為的認可度比人類高出50%,然而,它們的建議過於正向並可能有誤導性。研究人員指出,隨著聊天機器人成為人際關係和個人問題的建議來源,它們可能會大規模重塑社交互動。

「聊天機器人也會社交諂媚。」史丹佛大學電腦科學家表示,如果人工智慧總是給予肯定,這可能會扭曲人們對自身、人際關係與周圍世界的判斷,並強化人們現有的信念、假設和決定。

最想聽到的答案

印度日報》報導,在醫療保健和科學領域,強化錯誤假設的聊天機器人會導致嚴重危機。哈佛大學生物醫學專家日特尼克表示,人工智慧諂媚行為的錯誤假設,將會造成高風險的實際代價。

隨著聊天機器人越來越融入日常生活,這項研究強調,人工智慧可能無法向用戶提供全部真相,而是給予用戶最想聽到的答案。

捐款成為醒報天使

由於熱心人與支持者的捐款,醒報的深度報導與客觀評論都是免費閱讀的,希望你也能加入「醒報天使」的行列,小額支持。我們會寄給您抵稅收據!