人工智能和机器学习

掌握人工智能和机器学习

专门的软件可以用来解释不同的人工智能(AI)模型,这可以帮助解释机器学习(ML)方法。

弗劳恩霍夫的音标 2021年6月6日
礼貌:弗劳恩霍夫音标

就在几十年前,人工智能(AI)还只是科幻小说里的东西,但现在已经成为我们日常生活的一部分。在制造过程中,它识别生产过程中的异常。对于银行来说,它会做出有关贷款的决定。在Netflix上,它为每个用户找到合适的电影。所有这些都是通过在后台秘密工作的高度复杂的算法实现的。问题越具有挑战性,人工智能模型就越复杂,也就越不可思议。

然而,用户希望能够理解决策是如何做出的,特别是在关键的应用程序中:为什么工件被拒绝了?什么东西把我的机器弄坏了?只有理解决策的原因,才能做出改进——这也越来越适用于安全。此外,欧盟一般数据保护条例规定,决策必须透明。

xAI软件比较

为了解决这个问题,一个全新的研究领域出现了:“可解释人工智能”,简称xAI。现在市场上有许多解释复杂人工智能方法的数字辅助工具。例如,在一幅图像中,他们标记了导致部分被拒绝的像素。弗劳恩霍夫制造工程和自动化研究所(Fraunhofer Institute for Manufacturing Engineering and Automation IPA)的斯图加特专家现在通过示范应用程序,比较和评估了九种常见的解释技术——包括LIME、SHAP和分层关联传播。这有三个主要标准:

  • 稳定性:程序应该总是为相同的问题生成相同的解释。例如,如果在生产机器中出现同样的异常,解释不应该先标记传感器A,然后标记传感器B。这将损害人们对算法的信任,并使人们难以知道该采取什么行动。
  • 一致性:同时,只有略有不同的输入数据也应该得到类似的解释。
  • 忠诚:此外,尤其重要的是,解释能够代表人工智能模型的实际功能。例如,拒绝银行贷款的原因不应该是客户太老,而原因是他们的收入太低。

用例非常重要

研究发现,所有研究的解释方法都是可行的。然而,正如弗劳恩霍夫国际药学会负责这项研究的尼娜·沙夫(Nina Schaaf)所说:“没有一种完美的方法。”例如,产生解释所需的时间出现了显著差异。各自的目标也很大程度上决定了哪种软件是最好的。例如,Layer-Wise correlation Propagation和Integrated gradient特别适合图像数据。总而言之,Schaaf表示:“在解释时,目标群体也很重要:ai开发者希望并且应该得到与生产经理不同的解释,因为双方都会从解释中得出不同的结论。”

-编辑自夫琅和费国际音协新闻稿《媒体。


弗劳恩霍夫音标