
AI帶來的假訊息危機不只是資訊,而是心理與社會信任的崩解。人們在無形中被演算法牽引情緒,被假內容塑造信念。
臺灣五、六年級生對電影《魔鬼終結者》一定不陌生:未來的人工智慧擁有自我意識,反過來要消滅人類。這個影像深植人心,也形塑了我們對AI的恐懼——擔心有一天它會反叛、接管世界。
然而,以目前的技術發展來看,那樣的末日場景仍然遙遠。真正值得我們警覺的,並不是AI會毀滅人類,而是它正在悄悄改變人類本身。在演算法與生成式AI的推波助瀾下,資訊變得氾濫、真假難辨,我們的專注力被分散,社會的對話被撕裂,甚至思考也逐漸外包給機器。
正如專家所指出的,AI最危險的地方不在未來,而在當下:它讓我們失去理解世界與彼此的能力。
假訊息與認知操控
在AI時代,資訊的力量不僅來自真實,更多時候來自「誰能製造說服力」。生成式人工智慧讓假新聞與網路操弄的規模達到前所未有的程度。過去要動員一群「網軍」需要龐大的資源,如今,一個模型就能在幾秒內產生成千上萬篇假訊息、偽造影像與留言。
這些內容被設計成迎合群眾情緒的「毒性資訊」,目的在於混淆視聽、分化社會或打擊異議者。
因此,AI帶來的假訊息危機不只是資訊問題,而是心理與社會信任的崩解。人們在無形中被演算法牽引情緒,被假內容塑造信念;當我們的思想被操控而不自知,毀滅人類的或許不是AI本身,而是被它馴化的我們。
同溫層與社會極化
如果說假訊息是AI時代的「外部攻擊」,那麼同溫層效應則是「內部崩解」。社群平台的演算法以「讓你喜歡的更多」為原則,精準推送迎合使用者偏好的內容。這種設計看似貼心,卻讓人一步步被困在思想的迴圈裡。當我們每天看到的都是與自己觀點相符的文章與留言,就會誤以為全世界都和自己想的一樣,逐漸失去理解與包容異見的能力。
AI技術強化了這種趨勢。生成式AI能快速製造各式各樣的內容,讓每個群體都能在專屬的資訊泡泡中獲得「量身打造」的敘事。這種被演算法精密分割的社會,最終導致政治立場極端化、公共討論破碎化。人們不再是以事實為基礎交流,而是在情緒與立場中彼此指責。
自願放棄思考
在AI時代,我們最大的危機或許不是被取代,而是「自願放棄思考」。當人工智慧能在幾秒內生成文章、設計圖像或撰寫程式,人類逐漸習慣把繁瑣的思考交給機器。
更令人憂慮的是,AI的速度與便利讓我們的大腦難以跟上。面對海量資訊,人類傾向於快速瀏覽、淺層理解,注意力與專注力不斷下降。許多人陷入「資訊疲勞」與「數位倦怠」,逐漸失去深度閱讀與批判性分析的習慣。當所有問題都能讓AI回答,我們便失去了追問「為什麼」的動力。
當思考成為一種「多餘的行為」,人類的創造力與獨立判斷力也隨之萎縮。最終,我們可能不再需要AI接管世界——因為我們早已把大腦交了出去。
在AI時代,奪回思考的主權
與其害怕AI毀滅人類,我們更該憂慮它讓人失去思考的能力。假訊息氾濫、同溫層擴大、批判力衰退,真正的危機不是機器叛變,而是人心麻木。唯有保持理性與同理,回到真實互動與深度思考,我們才能在AI時代守住人性的清醒。
(作者蒲正寧為中華福音神學院資訊中心主任、中華基督教網路發展協會副秘書長)