恭賀本學程畢業生蔡鎮宇榮獲本校110學年度碩士學位論文獎(指導老師黃瀚萱 陳宜秀)
本次是政大第二屆博碩士學位論文獎,
獎勵徵選對象為108及109學年畢業的碩士及其指導教授,獲獎碩士論文總篇數為20篇。
蔡鎮宇獲獎的論文題目: 自然語言推理之後設可解釋性建模
黃瀚萱老師提及,鎮宇畢業於本校中文系,原本並無資訊科學、資訊工程相關背景,進入數位內容碩士學位學程之後,才開始學習程式設計、資料科學、機器學習、自然語言處理等技術。在這短短兩年間,鎮宇展現了高度的興趣和無比的熱忱,從不會寫程式到能夠操作、修改最新的深度學習模型,並且規畫完整的實驗,完成人工智慧領域的前沿研究。過程中,鎮宇不只掌握了Python程式設計與Keras、PyTorch等深度學習的建模框架,還操作Amazon Mechanical Turk進行資料標記,並學會使用LaTeX撰寫會議論文初稿。在兩年之中有如此顯著的成長,個人覺得十分激賞,比起許多資訊本科系的學生更為優秀。從研究成果來看,不論是探討的議題或是實驗設計,本研究頗有新穎性,技術深度與純資訊背景的學生相比,亦無取巧之處。近期有許多不同背景的學生對人工智慧充滿興趣,個人覺得鎮宇的學習歷程與研究成果,頗有示範的作用,將能激勵未來跨領域學習的學生。
陳宜秀老師也指出,蔡鎮宇的這篇有關自然語言處理(NLP)的論文用Transformer模型的注意力機制來提取文本中權重較高,用來形成語義推論(semantic inferencing)的文句。這篇論文彌補了在「可解釋的AI」(Explainable AI, XAI)領域對於傳播的受眾的研究缺口。雖然人工智慧能夠提供人類各種判斷及預測的協助,但是如果判斷的機制持續不透明,無法給予判斷的理由,無法令人放心地跟人工智慧合作。以訓練出來的三個模型為基礎,鎮宇進行了以一般讀者作為對象的研究,讓受試者依據這三個模型(模擬成為三個機器人)提取的文句去分辨這三個模型的「判斷行為」,以及這三個機器人可以令人信任的程度。結果顯示受試者不僅能以此分辨三者的不同,而且造成信任程度的差異。不只如此,在實驗過程中,鎮宇還發現了信任程度的交叉,也就是說,某種對於AI行為的解釋可以獲取起初的信任,但無法維持信任;而另外一種在維持信任上是有幫助的。鎮宇的研究結果顯示,人工智慧的應用在傳播方式上會造成信任的差異,而非只決定於模型的效率表現。這一篇論文的論述清楚,實驗設計突破以往XAI的研究,也為未來的研究開啟新的典範。