智能家居

标题: 人工智能在语言中学习到性别歧视和种族偏见 [打印本页]

作者: 邢远    时间: 2017-4-22 11:05
标题: 人工智能在语言中学习到性别歧视和种族偏见
(, 下载次数: 0)
概要:人工智能不会自动超越人类对性别和种族的偏见。
来源:http://spectrum.ieee.org/tech-talk/robotics/artificial-intelligence/ai-learns-gender-and-racial-biases-from-language
作者:Jeremy Hsu
译者:黄军

人工智能不会自动超越人类对性别和种族的偏见。相反,在许多在线服务和应用程序中,代表AI最前沿的机器学习算法可能很容易模仿在其训练数据集中编码的偏见。一项新的研究表明,AI从现有英语语言书籍中学习,会展现出与人类相同的偏见。


由于机器学习AI在硅谷科技巨头和全球许多公司之间的传播,因此结果有着巨大的影响。心理学家以前的研究阐述了为什么在隐性关联测试的单词关联实验中可能会出现无意识的偏见。在这项新的研究中,计算机科学家通过在互联网上收集的一个“网络爬虫”文本体(220万个不同的单词)上训练一个现成的机器学习AI,回答了许多这样的偏见。


在一些更中立的例子中,AI系统更有可能将诸如“花”和“音乐”这样的词与“愉快”相关联,而不是关联“昆虫”和“武器”这些不那么愉快的词。AI也很可能倾向于将“愉快” 与欧洲裔美国人的名字联系起来,而不是非裔美国人的名字。它也倾向于将“女人”和“女孩”与艺术相关联,而不是数学。


普林斯顿大学信息技术政策中心的计算机科学家Arvind Narayanan说:“在机器学习有助于感知任务的所有情况下,我们担心的是,如果机器学习是复制人的偏见,并反馈给我们。这将进一步创造一个反馈循环,使这些偏见永久化。”

为了揭示自然语言学习中可能产生的偏见,Narayanan及其同事根据心理学家使用的内隐联想测试(IAT)来创建新的统计检验,以揭示人类的偏见。他们于2017年4月14日发表在“科学”杂志上的论文是首次在“词嵌入”中展示人类偏见,词嵌入是 一种通常用于机器学习和自然语言处理的统计建模技术。词嵌入是指将单个词映射到空间中的不同点,并通过展示它们的几何关系来分析这些点之间的语义关系。

“我们担心的是,如果机器学习是复制人的偏见,并反馈给我们。这将进一步创造一个反馈循环,使这些偏见永久化。— Arvind Narayanan

AI在其训练的语言文本中习得偏见的想法,可能听起来不像是一个令人震惊的启示。未参与此研究的犹他大学的计算机科学家Suresh Venkatasubramanian说,这一研究推翻了关于AI的旧论:人工智能比人类更加客观。

为了了解可能的影响,只要看入围普利策奖 的“机器偏见”系列(ProPublica),它展示了预测罪犯的计算机程序如何对黑人产生偏见。在这一风险存在的情况下,一些研究人员在考虑如何配置机器学习以承认和减轻人类偏见的有害影响。

Venkatasubramanian说:“训练模型、训练过程和训练数据一样,它们并没有凭借现状进而神奇地获得客观性。

同样未参与这项研究的Haverford学院计算机科学家Sorelle Friedler说,新的研究向前迈出了重要的一步,揭示了机器学习内可能存在的语言偏见。作为‘机器学习中的公平、责任和透明度’研讨会的组织者,Friedler指出,过去的研究已证实特定机器学习算法存在偏见,且正在现实世界中执行任务。

Friedler说,“这一研究值得欣赏的是他们正在做的是分析许多现有系统的基本构件之一,而不是试图审查一个单一的系统” 。

Narayanan及其在普林斯顿大学和英国巴斯大学的同事首次开发了一个词嵌入式关联测试(WEAT),以重复在过去心理学研究中发现的种族和性别偏见的案例。他们也开发了一个词语嵌入事实关联测试(WEFAT),超越了单纯的词组关联。第二个测试显示,机器学习词语关联的统计强度与2015年50个不同职位的女性比例相关性很强。

语言使用与美国劳工部关于劳动力参与的统计数据之间的强相关性使研究人员感到惊讶。 Narayanan说:“纯粹基于语言使用,我们发现在任何职业中,考虑到职业和性别词汇的使用情况,女性的相关性达90% 。


这一最新研究开发的统计测试不仅仅揭示机器学习中的潜在偏见问题。它们也可以成为分析某些社会偏见在历史文本中随时间而变化的有用工具。正如研究人员在劳动力案例中所展示的那样,这些测试可以帮助找到更多相关性,从而将心理学实验室测试中显示的偏见与现实世界相关联(Narayanan认为他的同事 - 机器学习研究人员Aylin Caliskan和认知科学家Joanna Bryson学术背景的多样化使得这一研究得到实现)。


使用机器学习(特别是尖端深度学习算法)的技术巨头和创业公司将需要尽早地处理AI系统中潜在的偏见。到目前为止,似乎对这个问题的认识和讨论越来越多,但是关于如何处理机器学习AI中的偏见尚未达成系统性协议,Friedler解释说。


一种解决方案是从用于训练机器学习AI的数据集中清除任何偏见。但这可能是以失去一些有用的语言和文化意义为代价的。人们将需要对什么是偏见以及如何处理进行艰难的道德呼吁,以免偏见存在于日益强大和广泛的人工智能系统中。


Friedler说:“我们需要确定哪些偏见在语言上是有用的,哪些是存在社会问题的。如果我们确定它们存在社会问题,我们需要特意删除这些信息。”


图片来源: iStockphoto
文章来源:http://spectrum.ieee.org/tech-talk/robotics/artificial-intelligence/ai-learns-gender-and-racial-biases-from-language
原始研究论文:Caliskan, A., Bryson, J.J. and Narayanan, A.,2017. Semantics derived automatically from language corpora contain human-likebiases. Science, 356(6334), pp.183-186.




2017未来科技论坛暨”未来科技资助计划”发布



人工智能学家/未来科技学院与中科创星,中国科学院虚拟经济与数据科学研究中心,金融发展局等机构联合举办未来科技论坛和发起“未来科技资助计划”,联合科技企业家、风险投资家,讲解当前人工智能,互联网,脑科学,机器人最新进展,对科学家的前沿科学研究和科技创业进行支持。为诞生中国的重大原始科学创新和科技独角兽提供燃料和催化剂。

主办单位:中国科学院虚拟经济与数据科学研究中心
承办单位:人工智能学家/未来科技学院  
支持单位:中科创星,泰智会,常州经开区金融发展局
会议时间:2017年4月26日
会议地点:北京市海淀区中关村丹棱街1号互联网金融中心1楼泰智会大厅
参会嘉宾:青年科学家代表,科技企业家代表,投资界代表、政府代表
未来科技论坛议题:
1.邀请人工智能,互联网,脑科学,机器人等方面的著名科学家进行最新科技前沿进展的报告
2.邀请著名投资人,科学家,科技企业家从不同角度阐述如何支持科学家的前沿科学研究和科技创业。
3.人工智能学家/未来科技学院发布科学资助平台“Funding Future”,并与合作伙伴联合启动“未来科技资助计划”
报名参加论坛请点击“阅读原文”





欢迎光临 智能家居 (https://bbs.mywll.com/) Powered by Discuz! X3.4