
當全球對生成式人工智慧(Generative AI)技術的關注愈來愈高時,伴隨而來的卻並非一面倒的歡呼與擁抱,而是日益增強的質疑與抗拒。從學術界的實證研究,到媒體觀察到的民眾反應,生成式AI所引發的「不使用」(non-use)現象與集體反感(backlash)正成為值得深思的社會現象。
這些不願意使用AI的人,不單是科技素養不足的族群,更包含對AI具備高度認知與經驗的使用者,這背後究竟藏著什麼樣的集體情緒與價值衝突?
學界有人不用AI
首先,學術研究給出了重要的線索。根據來自楊百翰大學與喬治亞大學的研究,即便是在具備AI經驗的使用者群體中,仍有相當比例的人在某些情境下選擇「不用AI」。這些不使用行為主要受到三大關鍵因素驅動:對輸出品質的質疑、倫理疑慮,以及人際連結的缺失。簡單來說,這些人不是因為「不懂AI」,而是「有意識地選擇不用」。
這與傳統的技術接受模型(Technology Acceptance Model)形成鮮明對比,以往認為技術的可用性與效能決定了是否會被接受。而這項研究顯示,即使AI工具再強大、再便利,也不一定能獲得全然擁抱。反而在某些情境下,如寫悼詞、作重大決策、或表達情感時,使用者認為AI的介入是「不合適的」。人類在乎的不僅是「做對的事」,也在乎「以誰之手」來完成這件事。
有人憤而刪除App
同樣的情緒,在主流媒體與社群網路也不斷發酵。根據《WIRED》報導,語言學習平台Duolingo宣布將成為「AI優先」公司、用AI取代部分外包工作後,儘管公司澄清並非裁撤正職員工,但公眾仍表達強烈不滿,不少年輕用戶甚至「憤而刪除App」。類似的抗議聲浪也出現在Spotify、LinkedIn、Reddit等平台。無論是AI自動生成的音樂回顧、內容推薦,還是產品包裝上的AI繪圖插圖,只要一旦被識破,就可能引來留言區一片撻伐。
這種社會氛圍的轉變,反映出一種更深層的文化焦慮與價值衝突。首先是「人類可取代性」的焦慮。即使生成式AI尚無意識,也尚未全面取代工作,它已展現出對文字創作、客服應對、藝術設計等領域的極高介入能力。這種「無聲取代」的力量,讓許多從業者產生強烈的排斥感。
特別是在2023年好萊塢編劇罷工中,生成式AI的角色正是導火線之一。創作人認為AI的大規模訓練往往源自人類創作的資料集,卻未經同意授權,且可能最終搶走原創者的飯碗。
「人際真實性」的焦慮
其次是對「人際真實性」的焦慮,AI雖然能模擬語氣、情感,甚至書寫悼文、情書,但正因為如此,讓人開始懷疑我收到的一封感人文字,真的是對方親筆的嗎?還是AI生成的模板?這種懷疑,打擊的不只是工具的信任感,更侵蝕了人與人之間情感的真誠性。而研究也證實,對「人際連結的需求」越高的人,越可能在這些情境下拒絕使用AI。
再者是倫理與風險的考量,學術研究指出,「道德憂慮」是許多使用者不用AI的主因之一。這不僅限於抄襲或作弊,更包括對隱私的憂慮(如AI是否會蒐集個人數據?)、誤用的風險(如用AI進行錯誤診斷),乃至更大的結構性問題,例如生成式AI背後是否加劇數位資源分配不均?是否剝削了低收入地區的土地與電力?
雙方並非對立
當然,也有一些非使用的理由看似矛盾卻耐人尋味。例如在學術與創作情境中,一些人雖擔心AI會削弱創意或自我實踐的成就感,卻仍在迫切的時間壓力下選擇使用AI。這可能顯示出非使用與使用之間其實並非對立,而是在現代生活中不斷拉鋸與妥協的兩端。
對政策制定者與技術設計者而言,這些發現提供了重要的反思契機。我們不能再僅用「科技落後者」的角度去理解不使用AI的人,也不能只依賴「效率提升」來說服民眾接受AI工具。反之,我們應該正視AI技術所引發的倫理、情感與社會壓力,並設計出更具人性、可控、並能保障人類尊嚴的AI產品與政策。
AI的未來並不只是「更強大」,更應該是「更可對話」。理解不使用的群體,不僅是為了降低阻力,也是對民主科技的基本尊重。畢竟真正可敬的創新,不是讓人類消音,而是讓每一個選擇,包括選擇「不用」的權利,都能被看見與理解。