用正确的方式进行机器学习

麻省理工学院教授亚历山大·马德利(Aleksander Madry)致力于构建更可靠、更容易理解、更健壮的机器学习模型。

通过罗伯·马西森 2020年3月15日

麻省理工学院计算机科学家亚历山大·马德利(Aleksander Madry)的工作有一个核心使命:“以正确的方式进行机器学习。”

Madry的研究主要集中在使机器学习(一种人工智能)更加准确、高效和抗错误。在课堂内外,他还担心道德计算的问题,因为我们即将进入一个人工智能将对社会许多领域产生巨大影响的时代。

“我希望社会能真正接受机器学习,”最近在电气工程和计算机科学系担任终身教授的Madry说。“要做到这一点,我们需要弄清楚如何训练模型,让人们能够安全、可靠地使用,并以他们能够理解的方式使用。”

有趣的是,他在机器学习方面的工作可以追溯到几年前,也就是2015年他加入麻省理工学院后不久。在此期间,他的研究小组发表了几篇关键论文,证明某些模型很容易被欺骗,产生不准确的结果,并展示了如何使它们更可靠。

最后,他的目标是让每个模型的决定更容易被人类解释,这样研究人员就可以窥视内部,看看哪里出了问题。与此同时,他希望让非专家也能将改进后的模型应用到现实世界中,比如帮助诊断疾病或控制无人驾驶汽车。

“这不仅仅是试图打开机器学习的黑匣子。我想打开它,看看它是如何工作的,然后把它打包回来,这样人们就可以使用它,而不需要了解里面发生了什么,”他说。

因为对算法的热爱

马德利出生在波兰弗罗茨瓦夫,2000年代中期在弗罗茨瓦夫大学读本科。虽然他对计算机科学和物理很感兴趣,但“我实际上从未想过自己会成为一名科学家,”他说。

作为一名狂热的电子游戏玩家,Madry最初参加了计算机科学课程,打算自己编程游戏。但在和朋友们一起上理论计算机科学,特别是算法理论的课程时,他爱上了这门课程。算法理论旨在寻找解决计算问题的有效优化程序,这需要解决困难的数学问题。“我意识到我喜欢深入思考一些事情,并试图解决它,”Madry说,他最终获得了物理和计算机科学的双学位。

让敌对的

在加入麻省理工学院后不久,Madry发现自己被一门新颖的科学所吸引:机器学习。他尤其专注于理解重新出现的深度学习范式。这是一种人工智能应用程序,它使用多个计算层从原始输入中提取高级特征,例如使用像素级数据对图像进行分类。当时,麻省理工学院的校园里充满了该领域的新创新。

但这就引出了一个问题:机器学习是炒作还是可靠的科学?“它似乎起作用了,但没有人真正理解它是如何起作用的,为什么会起作用,”马德利说。

为了回答这个问题,他的团队开始了一段漫长的旅程,他们对深度学习模型进行了一次又一次的实验,以了解其基本原理。这一旅程中的一个重要里程碑是他们在2018年发表的一篇有影响力的论文,开发了一种使机器学习模型更能抵抗“对抗性示例”的方法。对抗性的例子是对输入数据的轻微扰动,这些扰动是人类无法察觉的——比如改变图像中一个像素的颜色——但会导致模型做出不准确的预测。它们揭示了现有机器学习工具的一个主要缺点。

继续这一工作,Madry的团队表明,这些神秘的对抗例子的存在可能有助于机器学习模型如何做出决策。特别是,用于区分猫和狗等图像的模型,会根据与人类分类方式不一致的特征做出决定。简单地改变这些特征就会让模型不断地将猫错误地归类为狗,而不会改变图像中对人类真正有意义的任何东西。

结果表明,一些可能用于识别医学图像中的异常情况或帮助自动驾驶汽车识别道路上物体的模型并不完全合格。“人们经常认为这些模型是超人,但它们实际上并没有解决我们想让它们解决的分类问题,”Madry说。“他们对敌对例子的完全脆弱性就是这一事实的表现。这是一个令人大开眼界的发现。”

这就是为什么Madry试图让机器学习模型更容易被人类理解。他开发的新模型显示了系统所训练的图像中的某些像素会影响系统的预测。然后,研究人员可以调整模型,将重点放在与可识别特征更密切相关的像素集群上,例如检测动物的鼻子、耳朵和尾巴。最终,这将有助于使模型在决策时更像人类或“超人”。为了进一步推进这项工作,Madry和他的同事最近成立了麻省理工学院可部署机器学习中心的合作研究成果麻省理工学院探索智慧该公司正致力于构建可用于实际部署的机器学习工具。

“我们希望机器学习不仅仅是一个玩具,而是可以用于自动驾驶汽车或医疗保健的东西。目前,我们对这些关键应用的了解还不够,没有足够的信心。”Madry说。

塑造教育和政策

Madry认为人工智能和决策(“AI+D”是电气工程和计算机科学系的三个新学术单元之一)是“将对社会产生最大影响的计算界面”。

在这方面,他确保让他的学生接触到计算机的人性方面。在某种程度上,这意味着要考虑他们正在建造的东西的后果。他说,学生们通常在创造新技术方面过于雄心勃勃,但他们没有考虑到对个人和社会的潜在影响。“创造一些很酷的东西并不是一个足够好的理由去创造一些东西,”Madry说。“这不是关于我们是否能够建造一些东西,而是关于我们是否应该建造一些东西。”

Madry还参与了有关法律和政策的对话,以帮助规范机器学习。他说,这些讨论的一个目的是更好地理解在社会上使用机器学习技术的成本和收益。

“有时我们高估了机器学习的力量,认为它会拯救我们。有时我们低估了它可能给社会带来的代价。”“为了正确地进行机器学习,还有很多事情需要解决。”

麻省理工学院

www.mit.edu

- CFE传媒编辑。


作者简介:作者,麻省理工学院新闻办公室