知道你的图片是如何被分类的吗?Google AI 告诉你

语音播放文章内容

由深声科技提供技术支持

人工智能发展至今天,利用 AI 来分类图片库已经不是什么稀奇的事情了。但是,图片并不都是单一的个人自拍或是单一物体,而是包含多种背景要素,例如多人合影、风景山水照等。那么,AI 是如何让图片分类器识别并做出决策将各种图片进行分类的呢?

针对这一问题,国外媒体的 相关报道 通过对相关论文的解读作出了解释,雷锋网对其进行不改变原意的编译。

【 图片来源: Google 所有者:Google 】

人们通常会认为 ,随着 AI 系统复杂性的增加,它的可解释性会变得越来越差。但是,研究人员开始用函数库来挑战这一想法,比如解释深度学习的神经网络框架 PyTorch 是如何做决定的 Facebook 的 Captum、IBM 的 AI Explainability 360 工具包、以及微软的  InterpretML。

为了使 AI 的决策更加透明,Google 和斯坦福的一个研究团队近期开发了一个机器学习模型——基于概念的自动解释(雷锋网 (公众号:雷锋网) 按: Automated Concept-based Explanation ,ACE),这个模型能够自动提取出“对人类有意义”的视觉概念,为模型的预测提供信息。

正如研究人员在其 论文 中解释的那样,大多数机器学习解释方法会改变单个特征(例如像素、超级像素、单词向量),去接近于每一个目标模型。不过,这是一种不完美的方法,因为它很容易受到一些输入变化的影响,哪怕是最小的变化。

和大多数机器学习解释方法形成对比的是 ACE 识别高级概念的方法:它在提取概念并确定每个概念重要性之前,会将一个训练过的分类器和一个类别的一组图像作为输入。具体来说,就是 ACE 片段图像在将类似片段作为相同概念进行分组,并将最重要的概念返回之前,有着多个决议去捕获多个层次的纹理、对象部分以及对象。

为了测试 ACE 的鲁棒性,该研究团队使用了 Google 的 Inception-V3 图像分类器模型,让其在 ImageNet 数据集上训练,并从数据集中的 1000 个类中选择 100 个类的子集来应用 ACE。

研究团队指出,被标记为重要的概念往往是遵从人的直觉的,例如,在检测警车时,执法部门的标识比地面上的沥青显得更为重要。不过,情况也不都是如此,在一些区别性不明显的案例中就有所体现。比如,预测篮球图像时,更为重要的是球员的球衣,而不是篮球。

另外,研究人员表示,他们通过人类实验验证了其意义和一致性,并进一步证实了 ACE 的确是携带着显著的预测信号。同时,研究人员还指出,他们的方法...自动将输入特性分组为高级概念;一些有意义的概念作为连贯的示例出现,这对于正确预测它们所呈现的图像非常重要。

值得一提的是,研究人员也承认了 ACE 绝非是完美的,因为它还难以有效地提取异常复杂或困难的概念。但是,他们认为,ACE 对模型的学习相关性提供的洞见会促进机器学习的安全使用。

雷锋网注:本文编译自 KYLE WIGGERS 发表在 venturebeat 上的文章

雷锋网原创文章,未经授权禁止转载。详情见 转载须知

我来评几句
登录后评论

已发表评论数()

相关站点

+订阅
热门文章