人工智能

应用机器学习和深入学习

可辩解的AI(新品):我们在那了吗?

这篇文章来自总局品牌工程和计算机科学教授、博士和能力。
这是第二篇3-post系列可辩解的人工智能(新品)。的第一篇文章突出显示的例子和提供实用的建议如何以及何时使用新品技术为计算机视觉任务。在这篇文章中,我们将扩大讨论通过提供建议的一些新品限制和挑战,你会发现在新品采用的路径。
在这一点上,你可能听说过可辩解的AI和想要探索的新品技术在你的工作。但一路上你可能也在想:只是做新品技术工作如何?你该怎么做,如果你发现的结果新品一样引人注目的你喜欢吗?下面,我们探索的一些问题周围的新品与健康的怀疑。

期望太高了吗?

新品——像许多人工智能的分支学科——可以接受一些炒作,谬误,和错误的希望与人工智能相关,包括潜在的不切实际的期望。
等术语可辩解的解释风险下降的谬论下匹配的人工智能的发展与人类的能力(2021年的论文为什么AI谢谢我们认为比较难出色地描述四个类似的谬论AI的假设)。这个谬论导致不切实际的期望,我们正接近一个时间点,人工智能解决方案不仅能实现伟大壮举并最终超越人类智慧,但是,最重要的是,他们将能够解释金宝搏官方网站如何为什么AI做过;因此,增加了人工智能的信任水平决定。一旦我们意识到这个谬论,它是合法的问自己:多少我们可以实际期待的新品?
在这篇文章中我们将讨论是否对新品的期望和价值的新品技术可能会增加我们的工作)太高,关注回答三个主要问题:
  1. 可以的新品成为信任的代理(价值)?
  2. 新品技术的局限性,我们应该意识到什么?
  3. 新品一致性技术可以改善用户体验?
让我们看看这三个具体的方面详细XAI-related预期。

1。可以的新品成为信任的代理(价值)?

很自然的把人工智能解决方案的“解释本身的能力”的程度相信人类在解决方案。然而,应该explainability翻译是值得信任的?
新品,尽管它的实用性,确保信任AI至少这三个原因:
一个。人工智能算法的前提下必须能够解释他们的决定对人类可能会有问题。人类不能总是解释他们的决策过程,甚至当他们这样做,他们可能不可靠或一致的解释。
B。在人工智能完全信任不仅涉及到信任模型,但也训练数据,团队创建的人工智能模型,整个软件生态系统。为了确保平价模型和结果之间,数据标准、最佳实践和惯例的工作流标准和技术的专业技能必须遵循。
C。信任是随着时间的发展,但在早期采用者的年龄想要模型可以产生快,早期模型有时介绍给公众的期望将会不断更新和改进在以后的版本——这可能不会发生。在许多应用程序中,采用人工智能模型,经得起时间的考验,始终性能可靠和正确的结果可能不够好,即使没有任何新品功能。

2。新品技术的局限性,我们应该意识到什么?

图像分析和计算机视觉领域,一个公共接口显示结果的新品技术包括覆盖“解释”(通常的形式的热图或凸起地图)的形象。这可以帮助确定哪些地区的图像模型被认为是最相关的决策过程。它还可以协助诊断潜在的错误,可能使深度学习模型,产生的结果看似正确但实际上模型是在错误的地方。一个典型的例子是哈士奇和狼图像分类算法这实际上是一个雪检测器(图1)。
哈士奇和狼分类器是一个雪探测器
图1:错误分类的例子在“哈士奇和狼”的形象分类器由于伪相关的图像之间狼和雪的存在。右边的图片,显示的结果石灰因果的新品技术,抓住了分类器错误。来源:https://arxiv.org/pdf/1602.04938.pdf
因果的潜在效用的新品结果导致越来越多的采用技术,如imageLIME,闭塞的敏感性,gradCAM计算机视觉任务。然而,这些新品技术有时达不到交付所需的解释,由于一些著名的局限性。下面是三个例子:

一个。新品技术有时会使用类似的解释正确的和不正确的决策。

例如,在在本系列以前的文章,我们表明,生成的热图gradCAM函数提供了同样令人信服的解释(在这种情况下,关注狗的头部区域)都当他们的预测是正确的(图2中,顶部)以及错误(图2中,底部:拉布拉多寻回犬被误认为是一种小猎犬号)。
犬种分类和可视化的热图进行分类
图2:结果的例子使用gradCAM犬种图像分类任务。

B。即使在情况下的新品技术表明,模型不是在正确的位置,这并不一定意味着它很容易知道如何解决潜在的问题。

在一些简单的情况下,如在前面提到的哈士奇和狼的分类,一个快速的视觉检查模型错误可以帮助识别伪相关之间的“雪”的和“狼的图片。“没有保证相同的过程将为其他工作更大或更复杂的任务。

C。结果是,task-dependent模型。

在本系列以前的文章中,我们还表明,生成的热图gradCAM在MATLAB函数提供了不同的视觉解释与相同的图像(图3)根据pretrained模型和任务。图4显示了这两个例子和添加一个第三个例子,同样的网络(GoogLeNet)使用未经修改。图4的快速目测足以三热图现货之间的显著差异。
拉布拉多狗
图3:测试图像不同的图像分类任务和模型(如图4)。
分类与热图GoogleNet和可视化的结果
图4在相同的测试:使用gradCAM图像(图3),但是对于不同的图像分类任务和模型。

3所示。新品一致性技术可以改善用户体验?

为了理解为什么如何人工智能模型的决策和获得更好的洞察它的成功和失败,一个简单的模型应该能够解释自己人类用户通过某种解释界面(图5)。理想情况下这个接口应该丰富,互动,直观,适合用户和任务。
用户界面可辩解的人工智能
图5:新品的可用性(UI / UX)方面:可辩解的模型需要一个合适的接口。
在视觉人工智能任务,比较两个或两个以上的方法产生的结果可以是有问题的,因为最常用的因果的新品方法使用显著不同的解释接口(即可视化方案)在他们的实现(图6):
  • 凸轮(类激活地图),包括Grad-CAM和闭塞的敏感性用热图相关热颜色突出/图像的相关部分。
  • 石灰(本地可判断的Model-Agnostic解释)生成superpixels typicallly显示为高亮显示的像素中列出不同的假彩色。
  • 世鹏科技电子(夏普利添加剂解释)值是使用像素分配给那些增加或减少一个类被预测的概率。
继续提高新品的一致性解决方案和接口将有助于增加新品采用和实用性。金宝搏官方网站
新品方法,包括Grad-CAM、石灰和世鹏科技电子
图6:三个不同的新品方法(Grad-CAM、石灰和世鹏科技电子)为四个不同的图像。注意结构(包括边界定义),选择的颜色(和他们的意义),值的范围,因此,强调地区新品之间显著差别的方法的意义。【来源:https://arxiv.org/abs/2006.11371]

外卖

在这篇文章中,我们提供的谨慎和讨论了一些现有的新品方法的局限性。尽管缺点,但仍有许多理由乐观的新品的潜力,我们将分享下一个(也是最后一个)发布在本系列。
|
  • 打印

评论

留下你的评论,请点击在这里MathWorks账户登录或创建一个新的。