资讯
展览资讯 大型展会 灯光节 大型盛典 赛事 中标捷报 产品快讯 热门话题 艺术节 活动 演出 新闻 数艺报道 俱乐部签约
观点
大咖专访 观点洞察 书籍推荐 吐槽 设计观点 企业访谈 问答 趋势创新 论文 职场方法 薪资报价 数艺专访
幕后
幕后故事 团队访谈 经验分享 解密 评测 数艺访谈
干货
设计方案 策划方案 素材资源 教程 文案资源 PPT下载 入门宝典 作品合集 产品手册 电子书 项目对接
  • 0
  • 0
  • 0

分享

2020级博士宋瑞论文被中科院一区Information Processing & Management(IPM)接收

原创 2023-01-18


徐昊教授和Fausto Giunchiglia教授联合指导的2020级博士研究生宋瑞同学的论文Measuring and Mitigating Language Model Biases in Abusive Language Detection 近日被 Information Processing & Management(IPM)杂志接收。Information Processing & Management是Elsevier出版社旗下的中科院一区TOP期刊(CCF-B),SCI IF(2022)= 7.466。

宋瑞本科就读于吉林大学软件学院,2018年保送到计算机科学与技术学院,进入徐昊老师HAI(Human-Centered AI)实验室读研,2020年于人工智能学院攻读博士学位。

本篇论文的通讯作者为徐昊教授,其他作者包括Fausto Giunchiglia院士,人工智能学院的博士研究生石立达同学等。


  文章详情


论文题目:

Measuring and Mitigating Language Model Biases in Abusive Language Detection

第一作者:宋瑞

指导教师:徐昊、Fausto Giunchiglia

收录期刊:Information Processing & Management

期刊类别:中科院一区,CCF-B

论文概述:

随着大规模预训练语言模型的兴起,基于预训练语言模型的分类逐渐成为辱骂语言自动检测的范式。然而,语言模型中固有的刻板印象对辱骂语言检测的影响仍然未知,尽管这可能进一步加强对少数弱势群体(妇女、儿童、移民等)的偏见,导致模型对包含上述群体的样本做出错误决策。为此,在本文中,我们使用多个指标来衡量语言模型中偏见的存在,并分析这些固有偏见对自动辱骂语言检测的影响。在此定量分析的基础上,我们提出了令牌去偏和句子去偏两种不同的去偏策略,在不降低分类性能的前提下,降低语言模型在辱骂语言检测中的偏见。具体来说,对于令牌去偏策略,我们通过随机概率估计来减少语言模型对特定群体的受保护属性词的依赖。在句子去偏策略中,我们利用反事实替换获得去偏样本,并利用原始数据与增强样本之间的一致性正则化消除语言模型句子层面的偏差。实验结果证实,我们的方法不仅可以降低语言模型在辱骂语言检测任务中的偏差,而且可以有效地提高辱骂语言检测的性能。

吉林大学|人工智能学院

吉林省长春市|吉林大学中心校区

正新楼|7F

阅读原文

* 文章为作者独立观点,不代表数艺网立场转载须知

本文内容由数艺网收录采集自微信公众号吉林大学人工智能学院 ,并经数艺网进行了排版优化。转载此文章请在文章开头和结尾标注“作者”、“来源:数艺网” 并附上本页链接: 如您不希望被数艺网所收录,感觉到侵犯到了您的权益,请及时告知数艺网,我们表示诚挚的歉意,并及时处理或删除。

数字媒体艺术 论文

11556 举报
  0
登录| 注册 后参与评论