劳动力发展

在IOT Industries中重新加工AI的性别平衡

STEM领域的女性:让更多女性进入人工智能(AI)和物联网(IoT)行业,有助于减少在开发这些技术和概念方面的一些根深蒂固的偏见。

乔安妮·古德曼(Joanne Goodman), Vinelake出版社 2018年5月12日

RE•AI晚宴的工作第三妇女在2018年2月在伦敦举行。这个正式网络活动庆祝人工智能(AI)的妇女,并展示了他们的成就。虽然发言者是女性,但这些不是女性的事件。这很重要,因为多样性是关于包容性,而不是分离。

没有足够的女性在技术工作,更不用说在AI中。例如,在英国,83%的人在英国机器人周2017上呈现的数据,涉及人员的科学,技术,工程和数学(Stem)职业是男性。据报道,不到10%的女性是女性尽管ADA Lovelace被广泛被认为是第一台计算机程序员。

RE•工作正在通过组织一系列女性专家演讲者的一系列晚餐在展开他们在新兴技术的尖端工作的一系列晚餐来改善蓬勃发展的AI社区的性别平衡。RE•工作创始人Nikita Johnson和她的团队小心不要纠正传统的“妇女的挑战”。相反,RE•工作专注于技术和研究,以覆盖传统先进的方式,展示AI中的妇女。

然而,挑战是,偏见和偏见在社会中深入地被加入,这意味着它们也在AI应用数据中没有进入。因此,Deepmind高级研究科学家Silvia Chiappa的第一次介绍是为了创新算法公平。

治愈偏差病毒

机器学习已经被用于制定和支持影响人们生活的决策或过程:在招聘、教育、借贷以及警察和法律方面。例如,法官和假释官使用算法来预测被告或囚犯再次犯罪的可能性。关键是要确保算法不会对来自特定社会或种族群体的个人产生偏见。

最大的挑战是不可能从历史/先例数据(反映了当时社会存在的偏见)中去除偏见,因此DeepMind正在创新方法,以提高算法的公平性。

在AI术语中,忽视比赛或性别等敏感因素,或者给予它们负重是无效的,因为这可能对系统性能产生负面影响。它可能不会增加公平性,因为这些因素与其他属性相关。例如,种族与社区之间存在正相关。

这强调了将问题情境化的重要性:识别有意识和无意识的偏见并寻找解决方案。Chiappa说,换句话说,我们不能消除偏见,但我们可以利用它们来建立一个更公平的社会。

第二个演讲来自剑桥大学和艾伦·图灵研究所的移动系统教授Cecilia Mascolo。她的演讲涉及了智能手机和可穿戴设备上的内置计算单元的潜在应用,特别是在那些接入云平台可能有限或缓慢的发展中国家。

这些可能性包括使用智能手机的内置人工智能功能来支持医疗保健应用程序。例如,语音识别可以用于情绪监测和阿尔茨海默病的早期诊断。然而,持续监控和/或收集详细的位置数据,会涉及隐私问题。Mascolo表示,这类似于药物的副作用,他补充说,更多的本地化计算可以减少隐私担忧,同时保持个性化医疗监控的好处。

风力涡轮机的自诊断

最后的演讲来自富士通的首席交易架构师Marian Nicholson,她讨论了深度学习在高级图像识别中的应用。例子包括教风力涡轮机识别有缺陷的叶片。

富士通的工作始于这样一个前提,即人类主要是视觉概念化者,即视觉概念化者。在美国,婴儿能够识别图像,并将它们与周围发生的事情联系起来。今天,图像识别对于自动和半自动驾驶车辆、配送无人机等都很重要。

Nicholson提到了最近关于人工智能危险的头条新闻,并强调了组织需要选择将技术用于好的方面。她说,富士通自己的使命是开发有益于社会的技术。但要让社会接受人工智能,就需要数据的透明度、系统如何工作,以及关键的是,它为什么被设计,以及识别和最小化偏见的能力。她说:“我们有责任确保人工智能以安全、公平的方式使用,这平衡了人工智能的力量和潜力。”

Joanne Goodman.商业互联网.这篇文章最初发表于商业互联网网站.商业互联网是CFE媒体内容合作伙伴。由Chris Vavra,生产编辑,控制工程,CFE媒体编辑,cvavra@cfemedia.com.

更多的答案

关键词:人工智能、物联网、性别差距

太少的女人加入Stew Industries,特别是AI和IoT行业。

偏见和偏见在社会中深入加入,这意味着它们也在用于开发AI应用的数据中。

接受ai.需要透明度,了解系统如何帮助最小化任何潜在偏差。

在线额外

关于作者

Joanna Goodman是一家关于全国出版物的商业和技术的自由撰稿人,包括守护者报纸和法律社会宪报,她是专栏作家。她的书籍,机器人在法律上:人工智能如何改变法律服务,发表于2016年。