AI決策若「可解釋」 陳良基:能提升信任

祝潤霖 2020/05/11 17:59 點閱 19641 次
科技部長陳良基(中)與台大AI中心教授徐宏民(右2)等,一同發表XAI可解釋性人臉辨識成果。(photo by 祝潤霖/台灣醒報)
科技部長陳良基(中)與台大AI中心教授徐宏民(右2)等,一同發表XAI可解釋性人臉辨識成果。(photo by 祝潤霖/台灣醒報)

【台灣醒報記者祝潤霖台北報導】「AI的升級版要能跟人類解釋原因,不只是一個黑盒子。」科技部長陳良基11日表示,徐宏民教授團隊開發的可解釋性XAI(Explainable AI)人臉辨識模組,同步化辨識的正確性及可解釋性,並透過語音說明,能讓使用者明白AI決策的理由,提升人類對使用AI的信任度。

人類對AI的信賴度

「當人臉辨識要落地變為產品使用時,可解釋性變得非常重要。」台大AI中心教授徐宏民說,包括低解析度及偽裝人臉的研究,甚至牽涉到國安問題,例如2016年紐約爆炸案,監視器畫面有拍到嫌犯,但當時的技術無法辨識。解析度小的做法,首先是把人臉放大,人類辨識能力約97.53%,AI已經達到98%以上。

「AI辨識真的能依賴嗎?系統說是A,為什麼?為何不是其它結果?」徐宏民表示,研究團隊試著建立可解釋的模組,希望能讓正確性高、可解釋性也高,並把結果轉換成可解釋的語音。xCos已經開源讓國內外的業界、學界使用,希望加速人臉辨識開發,持續研究XAI在醫學、能源、工業的應用,幫助解決問題。

徐宏民強調,這套XAI模組除了可供末端使用者了解人臉辨識結果的原因,更可協助開發人員探究及檢視系統的運作機制,同時也正將XAI技術擴展到其他領域的決策系統,例如AI可預告發電廠未來1小時是否需要增加發電量,可以說出X光片是否有肺炎徵召,進一步解釋判斷的依據,並指出病徵位置等功能。

可解釋是未來趨勢

陳良基表示,3年前開始推動AI計畫之後,台灣的AI發展有很大進步,2019年曾因應AI發展重要性,推出全世界首個AI科研發展指引,因為AI會跟將來的人類發展史大幅重疊在一起,甚至取代很多人類的工作。當初訂為「指引」就是表示它真的很難,科技部很重視AI將來怎麼跟人類協作,「這才是將來的趨勢!」

「可解釋的人工智慧,無疑是國際上AI發展的重要目標。」陳良基說,歐盟2月發表的AI白皮書也提及,缺乏信任是阻礙AI廣泛應用的主要原因,未來AI發展的重點須透過理解AI決策成因,來強化運作流程的透明度,讓普羅大眾對AI感到信賴。
cari
可解釋性XAI人臉辨識模組,透過語音說明,能讓使用者明白AI決策的理由。(photo by 祝潤霖/台灣醒報)

cari
科技部長陳良基親自帶上假髮、口罩拍照,來測試XAI的人臉辨識本領有多高。(photo by 祝潤霖/台灣醒報)