決策公平性是人類對人工智能最普遍關注的問題之一。以大模型為代表的人工智能公平性缺失可能會導致智能系統(tǒng)決策不公、信任度降低、系統(tǒng)失靈等后果,隨之帶來司法不公、資源分配不均、就業(yè)歧視、機會不均等一系列嚴重的社會和倫理道德問題。造成人工智能決策不公平的原因主要有兩點:一是用于人工智能模型訓練的數(shù)據(jù)大多來源于人為采集數(shù)據(jù),本身存在天然的偏差;二是模型在訓練過程中由于迭代交互的原因?qū)е缕畹倪M一步放大。
大數(shù)據(jù)挖掘及應用中心成員聚焦人工智能的典型應用場景——推薦系統(tǒng),針對物品曝光偏差所導致的推薦決策不公平、用戶不信任,進而造成推薦系統(tǒng)失效的嚴重后果,解析交互推薦過程中產(chǎn)生曝光偏差的本質(zhì)原因,構(gòu)建基于馬爾科夫決策過程的動態(tài)交互新范式,提出推薦多樣性和新穎性共融的強化學習去偏方法,助力高質(zhì)量低曝光度物品的發(fā)現(xiàn)。進一步采用信息熵來對物品曝光公平程度進行精準刻畫,建立基于動態(tài)軟約束的公平推薦模型,實現(xiàn)了在長期交互過程中推薦效用和公平性的共同提升。
該研究揭示了曝光度偏差對交互式推薦的具體影響機制,強調(diào)了多樣性和新穎性在消除推薦系統(tǒng)偏差中的重要性,同時也論證了在長期交互中推薦效用和公平性公贏的可能性,為人工智能、大模型公平性的研究提供了全新視角。相關研究成果發(fā)表在數(shù)據(jù)挖掘頂刊ACM Transactions on Information Systems(CCF-A)和服務計算領域頂級國際學術(shù)會議IEEE International Conference on Web Services(CCF-B)。
上述工作得到國家自然科學基金、中國科學院“西部之光”計劃,重慶市教委重點合作項目、教育教學改革研究計劃項目支持。
相關論文鏈接:
https://www.computer.org/csdl/proceedings-article/icws/2023/048500a118/1QzhT2tdnGg
https://dl.acm.org/doi/10.1145/3618107
推薦系統(tǒng)中的流行度偏差
基于不同策略的離線強化學習方法的交互式推薦以及項目公平性問題