「演算公平性」是 AI 執法的重要挑戰。本院歐美研究所洪子偉副研究員與東吳大學顏均萍助理教授,以對比式因果模型分析芝加哥警方預測警務中的種族歧視成因,解釋為何不同的公平性標準無法在數學上同時成立。同時從認知科學指出,人類兒童雖發展出偵測「不公平」行為的普遍能力,但何謂「公平」標準卻非固定,而是會隨時空條件改變的社會產物,進而提出 AI 治理之政策建議。本研究成果於今(2023)年 6 月刊登於重要知識論與科學方法論期刊 Synthese

論文全文: https://link.springer.com/article/10.1007/s11229-023-04189-0

如何改善 AI 執法中的演算公平性?