今(2023)年 5 月本院首次舉辦「思想櫥窗」座談,跨領域交流引起熱烈迴響。6 月 19 日召開第二場,討論主題延續上一場的「人工智慧」,聚焦於「AI 與未來社會:知識協力、智慧指引?」。當天有近 30 位來自不同單位的研究人員參與,在地球科學研究所的圖書館,襯著午後陽光和煦,帶著咖啡香腦力激盪,開啟一段自由暢談的時光。

主持人文哲所黃冠閔所長表示,希望這次座談更聚焦於人工智慧如何影響人類社會發展,及我們該如何面對。廖俊智院長亦鼓勵跨領域學者的共同思辯,能進一步發展為具體行動(action item),因應人工智慧帶來的鉅變,善盡本院關鍵社會責任。

迎接 AI 時代的風險與機遇 思想櫥窗跨域暢談可能解方

邀請孔祥重院士與談 AI 當法官?可以相信它嗎?

本次座談特別邀請世界知名的資訊科學領域重要學者,創辦「臺灣人工智慧學校」的孔祥重院士與談。孔院士以 AI 的可信度(Trustworthiness)為題,首先詢問在場人士:由 AI 所生成的結果是否皆可信?他表示,這中間是有落差(gap)的,稱之為「AI 的信任債」(AI Trustworthiness Debt)。若以生成式 AI 的執行程序,透過來回辯論、練習,是否能藉由 AI 演算法模擬出法官的邏輯判斷,訓練出在法庭上無往不利的律師?

孔院士指出,有三個階段可能影響 AI 法官的判決,分別是:輸入(Input)、接收與理解(Sensing)及決策(Decision)。理想上,由人類輸入資料、提供案件情境給 AI 法官,AI 理解這些指令後,再做出回應或判決。但過程中,可能因為人類及 AI 法官對案件切入和理解的角度不同而產生詰問、辯論內容或判決上的落差,因此,律師想藉由 AI 法官預測標準答案、「必勝」的判決,他認為還有很長的路要走。

透過這個故事,孔院士拋出幾個大哉問:既然存在這些落差,人類還能信任 AI 嗎?另外,如同律師想創造虛擬法官,人類社會真的有(或需要)一致的目標和標準嗎?

事事問 AI 時代來臨,下一代需要什麼樣的教育?

有人表達對 AI 發展的擔憂,當人類過度依賴 ChatGPT,對這個世界的認知和理解方式,是否會過於扁平?現階段的生成式 AI 並不在意答案的真假,主要依照人類的指示回答既有答案,可能造成資訊偏誤,或排除少數族群成為知識霸權。亦有與會者以孩子的功課為例,提出 ChatGPT 的廣泛使用,是否會造成人類喪失學習能力、甚至是創造力?而面對往後「事事問 AI」的社會,我們的下一代需要什麼樣的教育?

對於這些問題,大多數同仁仍保持樂觀態度,認為人工智慧是不可擋的浪潮。甚至在未來,人人都應該學會並訓練出一套自己的人工智慧模型,這將大幅改變人類勞動、學習等行為模式。因此,除了要加強技術,更該教給下一代技術背後的「思維能力」,才是正確使用這項技術的素養。

如何防範 AI 潛在風險?從開發端與使用端分頭規範

另一個迫切的問題,是在人工智慧迅速發展、廣泛應用的現代社會,我們要如何規範人工智慧,防止其可能帶來的風險與衝擊?有同仁認為,針對 ChatGPT 的有效規範,需同時將市場、技術與法律的面向納入,但這個問題又牽涉到,究竟是要針對「開發者」或「使用者」進行規範?

有同仁認為,應從開發端進行管制,禁止人工智慧進行違反倫理、道德的技術研發,亦不能讓相關產品上市。例如:歐盟現訂定的法律,即是歸納並標示人工智慧技術的風險程度,禁止某些技術被市場使用,就是針對使用者端來進行規範。

若從規範使用者的角度來討論,那麼中研院的研究人員該不該使用 ChatGPT 呢?在場多數人的共識仍是「要」,而且必須用!因人工智慧可以幫助研究人員更有效率地蒐集和分析數據。但資料的收集與分析必須奠基在不違反倫理、道德的前提上。

技術發展結合人文觀點,跨領域激盪具體行動

活動尾聲,廖院長鼓勵同仁針對人工智慧的技術發展,結合人文社會領域的觀點,採取更積極的行動,包含:按照本院的組織特性,量身打造 ChatGPT 使用規範或指引,例如:定義哪些是研究人員必備的「核心學術能力」?哪些工作可以交給 ChatGPT?也期盼本院同仁發揮各領域專長,結合好奇探索的創意,在人工智慧浪潮中持續發揮正向的影響力。