%e7%a7%91%e6%8a%80%e9%83%a8%e9%95%b7%e9%99%b3%e8%89%af%e5%9f%ba%ef%bc%88%e4%b8%ad%ef%bc%89%e8%88%87%e5%8f%b0%e5%a4%a7ai%e4%b8%ad%e5%bf%83%e6%95%99%e6%8e%88%e5%be%90%e5%ae%8f%e6%b0%91%ef%bc%88%e5%8f%b32%ef%bc%89%e7%ad%89%ef%bc%8c%e4%b8%80%e5%90%8c%e7%99%bc%e8%a1%a8xai%e5%8f%af%e8%a7%a3%e9%87%8b%e6%80%a7%e4%ba%ba%e8%87%89%e8%be%a8%e8%ad%98%e6%88%90%e6%9e%9c%e3%80%82%ef%bc%88photo_by_%e7%a5%9d%e6%bd%a4%e9%9c%96%ef%bc%8f%e5%8f%b0%e7%81%a3%e9%86%92%e5%a0%b1%ef%bc%89

AI決策若「可解釋」 陳良基:能提升信任

祝潤霖 2020/05/11 17:59 點閱 15606 次
科技部長陳良基(中)與台大AI中心教授徐宏民(右2)等,一同發表XAI可解釋性人臉辨識成果。(photo by 祝潤霖/台灣醒報)
科技部長陳良基(中)與台大AI中心教授徐宏民(右2)等,一同發表XAI可解釋性人臉辨識成果。(photo by 祝潤霖/台灣醒報)

【台灣醒報記者祝潤霖台北報導】「AI的升級版要能跟人類解釋原因,不只是一個黑盒子。」科技部長陳良基11日表示,徐宏民教授團隊開發的可解釋性XAI(Explainable AI)人臉辨識模組,同步化辨識的正確性及可解釋性,並透過語音說明,能讓使用者明白AI決策的理由,提升人類對使用AI的信任度。

人類對AI的信賴度

「當人臉辨識要落地變為產品使用時,可解釋性變得非常重要。」台大AI中心教授徐宏民說,包括低解析度及偽裝人臉的研究,甚至牽涉到國安問題,例如2016年紐約爆炸案,監視器畫面有拍到嫌犯,但當時的技術無法辨識。解析度小的做法,首先是把人臉放大,人類辨識能力約97.53%,AI已經達到98%以上。

「AI辨識真的能依賴嗎?系統說是A,為什麼?為何不是其它結果?」徐宏民表示,研究團隊試著建立可解釋的模組,希望能讓正確性高、可解釋性也高,並把結果轉換成可解釋的語音。xCos已經開源讓國內外的業界、學界使用,希望加速人臉辨識開發,持續研究XAI在醫學、能源、工業的應用,幫助解決問題。

徐宏民強調,這套XAI模組除了可供末端使用者了解人臉辨識結果的原因,更可協助開發人員探究及檢視系統的運作機制,同時也正將XAI技術擴展到其他領域的決策系統,例如AI可預告發電廠未來1小時是否需要增加發電量,可以說出X光片是否有肺炎徵召,進一步解釋判斷的依據,並指出病徵位置等功能。

可解釋是未來趨勢

陳良基表示,3年前開始推動AI計畫之後,台灣的AI發展有很大進步,2019年曾因應AI發展重要性,推出全世界首個AI科研發展指引,因為AI會跟將來的人類發展史大幅重疊在一起,甚至取代很多人類的工作。當初訂為「指引」就是表示它真的很難,科技部很重視AI將來怎麼跟人類協作,「這才是將來的趨勢!」

「可解釋的人工智慧,無疑是國際上AI發展的重要目標。」陳良基說,歐盟2月發表的AI白皮書也提及,缺乏信任是阻礙AI廣泛應用的主要原因,未來AI發展的重點須透過理解AI決策成因,來強化運作流程的透明度,讓普羅大眾對AI感到信賴。
cari
可解釋性XAI人臉辨識模組,透過語音說明,能讓使用者明白AI決策的理由。(photo by 祝潤霖/台灣醒報)

cari
科技部長陳良基親自帶上假髮、口罩拍照,來測試XAI的人臉辨識本領有多高。(photo by 祝潤霖/台灣醒報)



可用鍵盤操作