安居多伦多
  • 多市生活
    • 多市生活
    • 加国税务
    • 旅游度假
    • 生活安全
    • 行车安全
    • 窍门集锦
  • 多市书苑
    • 热门
    • 小说
    • 教育
  • 家居信息
    • 家居信息
    • 房屋保养
    • 房屋贷款
    • 房屋租赁
    • 房屋建筑
    • 房前屋后
    • 家居风水
  • 健康保健
    • 健康保健
    • 饮食起居
    • 食品安全
    • 健身锻炼
  • 书苑账户
    • 书苑登入
    • 书苑注册
    • 忘记书苑密码
    • 书苑账户信息
    • 关于我们
    • 联系我们
    • 隐私政策
多伦多书苑
在线书籍:随时阅读,随身听书。
所有书籍 | 人文 | 人物 | 人生 | 健康 | 儿童 | 医学 | 历史 | 历史 | 古典 | 哲学宗教 | 商业 | 外国 | 寓言 | 小说 | 教育 | 风水 | 管理 | 语言 |
为使本公益资源网站能继续提供免费阅读,请勿屏蔽广告。谢谢!报告弹出广告被滥用。
  1. 安居多伦多
  2. 网上书苑
  3. 文学
  4. 科普
  5. 人工智能全传

人工智能全传

2022-05-18 0人点赞 0条评论
点赞
x
语速1.0: 2.0
进度0:

上一页   |   返回目录   |   下一页

多样性缺乏

1956年,当约翰·麦卡锡向洛克菲勒研究所提交了关于人工智能达特茅斯暑期学校的提案时,他列出了拟邀请参加会议的47人名单。“并非所有人都能来参加这次会议,”他在1996年写道,“只有那些我认为会对人工智能产生兴趣的人,才会被列入名单。”

现在,我想提个问题,你猜一下有多少名女性被列入了邀请名单,见证了人工智能作为一门新兴科学的诞生呢?

答案是:零。我非常怀疑,任何一个有声望的当代研究资助机构会考虑赞助这样一场连基本的多样性测试都通不过的活动。事实上,现在的标准做法是要求申请人确保如何解决平等性和多样性问题。但是,在当时男女就是这么不平等。如果你一直关注本书,很难忽略的一个事实就是,人工智能长期以来似乎都是一个由男性主导的学科。

事后来看,我们可以意识到当时普遍存在的不平等现象,并对此感到遗憾。我同样认为,用我们今天还没有彻底实现的标准去评判20世纪中叶举行的一次活动也没多大意义。更重要的问题在于,今天的人工智能研究本质是否有所不同。在这里,虽然有一些好消息,但总体情况只能说喜忧参半。一方面,你不管参加哪一个有声望的国际人工智能会议,都会看到许多女性研究人员的身影。但是,另一方面,人工智能领域的男性主导现象仍然存在:缺乏多样性仍然是人工智能现阶段面临的一个棘手问题,就如科学和工程学科诸多领域一样[132]。

人工智能研究领域的性别构成很重要,原因有很多。一方面,男性主导的研究领域将使潜在的女性科学家感到反感,从而扼杀了这一领域潜在的宝贵人才。而且,也许更重要的是,如果人工智能完全是由男性设计的,那么我们最终得到的结果将是——找不到更好的术语来形容了:男性人工智能。我的意思是,这样建立的体系必然会体现出特定的世界观,而这种世界观不能够代表女性,甚至对女性根本不友好。如果你不相信,那么请你读一本让我对这个问题大开眼界的书:《看不见的女人》,卡罗琳·克里亚多·佩雷斯(Caroline Criado Perez)所著[133] 。她提出的关键问题在于:我们这个世界上几乎所有的东西都是由只考虑单一性别的人设计和制造的——男性。她认为,造成这种情况的根本原因是她所说的“数据缺口”:通常用于制造和设计的历史数据集绝大多数是以男性为导向的:

大部分历史记录的数据都是有缺陷的……古时候狩猎都是由男性来完成的,以往的历史写作者根本没有给女性留下多少空间……相反,人们默认男人的生活方式代表了人类的生活方式,当谈到人类另一半的生活时,通常只有沉默和空白……这些沉默,这些缺陷,都会产生后果。它们每天都影响着女性的生活。这种影响都发生在细微处。例如,办公室空调温度标准是为男性设定的,让女性在办公室里瑟瑟发抖;或者,女性在超市里挣扎着想够到按照男性身高标准设计的货架顶层等……它们不危及生命,不像一辆汽车的安全设施没有考虑到女性的身体尺寸,不像心脏病发作的时候得不到救治和诊断,所以你的这些烦恼都是“非典型的”。这样的现状,即女性每天都生活在围绕着男性的数据构建的世界中,带来的后果可能是致命的。

卡罗琳以各种毁灭性的细节全面记录了以男性为基准设计和以男性数据为标准的问题到底有多普遍。当然,对于人工智能而言,数据是必不可少的,但数据集里男性偏见是普遍存在的。有时候,这种偏见很明显,比如在广泛应用于训练语音理解的口语数据集中,69%的数据集是男性声音,不可避免地,这个语音理解的系统对女性声音的理解就会比对男性声音的理解效果差得多。但是,有时候,这种偏见更细微。如果你收集一组厨房的照片来训练程序,那么这些照片大多会跟女性有关;或者假设你收集一组主要描绘各大公司CEO的照片,会发现大部分都是男性。现在,你应该可以很轻易推断出这样的数据会让程序造成什么样的偏见。而且,正如卡罗琳指出的,这些事情都确确实实发生过。

有时候,这种偏见简直是根深蒂固。一个臭名昭著的案例发生在2017年,有人发现谷歌翻译公司在翻译文本的过程中,有时候会篡改文本中的性别[134] 。如果你将下列文字从英语翻译成土耳其语:

他是一名护士

她是一名医生

再将翻译好的土耳其语翻译成英语,就变成了:

她是一名护士

他是一名医生

还真是没有性别的刻板印象啊,是吧?

偏见本来就是人工智能中存在的问题,对女性而言,这个问题更具有特殊性。因为新的人工智能系统建立在有着强烈男性偏见的数据基础上,而建造新人工智能系统的团队压根没注意到这一点,因为他们自己也有男性偏见。

人工智能面临的终极挑战之一,就是如果我们构建某些体现真人特性的系统,例如,当我们构建Siri和Cortana这样的软件智能体时,可能会无意中以强化某种刻板的性别认知方式来构建。如果我们要构建一个具有服从性的人工智能系统,让它看上去或者听上去都像女人,那么就等于在无意中宣传女性的仆从地位[135] 。

上一页   |   返回目录   |   下一页

类似书籍

人工智能的进化
人工智能的进化
十万个为什么最全集(超值白金版)
十万个为什么最全集(超值白金版)
智能商业
智能商业
外星人长得像人吗
外星人长得像人吗
水知道答案
水知道答案
宇宙观:一场跨越时空的宇宙探秘之旅
宇宙观:一场跨越时空的宇宙探秘之旅
Author:

标签: 暂无
最后更新:2022-05-18
< 上一篇
下一篇 >

本书评论

取消回复

©2021 安居多伦多 - 版权所有

本站由 好事来 Hostlike.com 提供技术支持。