查看: 53|回复: 0

可解释的人工智能:使商业人工智能的采用可信

[复制链接]

13

主题

13

帖子

52

积分

新手上路

Rank: 2

积分
52
发表于 2019-10-25 16:35:47 | 显示全部楼层 |阅读模式
       对许多组织而言,由于缺乏透明度,人工智能仍然是谜团重重,人们不敢将其投入生产中。但是需求,进步和新兴的标准可能很快会改变这一切。
       就利用人工智能和机器学习而言,人们对结果的信任是很重要的。由于所谓的人工智能“黑匣子”问题,许多组织(尤其是那些受管制的行业的组织)可能会犹豫不决,不敢使用人工智能系统:算法只是得出模糊的决策而没有解释其所遵循的理由。
       这是一个显而易见的问题。如果我们不知道人工智能如何发挥作用,那我们又如何将医疗诊断或自动驾驶汽车等领域里生死攸关的决策交给人工智能来做?
       这个问题的中心是神话所笼罩的技术问题。如今,人们普遍认为,人工智能技术已经变得如此复杂,以至于系统无法解释为何做出自己的决定。即使可以,解释也太复杂了,以至于我们的大脑无法理解。
       现实情况是,当今在机器学习和人工智能系统中使用的许多最常见的算法都可以内建所谓的“可解释性”。我们只是没有在使用它——或者我们无法访问它。对其它算法来说,人们还在开发可解释性和可追溯性功能,但我们很快就能用上了。
       在本文中,你将找到可解释的人工智能的含义,它为什么对商业用途来说很重要,以及哪些力量在推动人们采用人工智能,以及哪些因素阻碍了人工智能的应用。
       为什么可解释的人工智能很重要
       毕马威(KPMB)和Forrester Research去年发布的报告显示,只有21%的美国高管高度信任这两家公司的分析。毕马威(KPMG)的新兴技术风险的全球负责人Martin Sokalski表示:“这些高管不仅相信我们对人工智能所做的分析——而且相信我们所做的所有分析。
       Sokalski说,由于人们对分析缺乏信任,人工智能的采用渐渐放缓,尤其是各大公司对人工智能进行大规模部署的速度放缓。
       Sokalski说:“虽然你让聪明的数据科学家想出这些令人惊叹的模型,但是他们却没有施展空间,因为企业领导者不信任也不了解这些模型。我不会在任何会使我不断与监管机构打交道的模型部署到这些流程中,也不会使让我登上头条新闻的模型部署到这些流程中。”
       要考虑监管审查的可不光是医疗和金融服务行业。《通用数据保护条例(GDPR)》称,所有公司都必须向客户解释为什么自动化系统会做出决定。
       此外,由于无法分析算法如何得出结论,因此各大公司在业务可能上线时不得不盲目相信人工智能系统的建议。
       例如,零售公司Bluestem Brands正在使用人工智能提供定制化的购物建议。但是,如果人工智能系统推荐的商品不是有据可考的畅销物品,或者与销售专家的直觉不符怎么办?
       Bluestem Brands的IT主管Jacob Wagner说:“人们往往会说,‘不,这个人工智能坏了,我们应该推荐最畅销的裤子。’”
       解决这些信任危机的方案是提供一个解释。人工智能系统在提出建议时使用了哪些因素?这就是可解释的人工智能该出现的场合——人们越来越需要这样的功能。
       可解释的人工智能包含了各种各样的工具和技术,这些工具和技术旨在使具备领域专长的人更容易理解人工智能系统的最终解决方案。可解释的人工智能使人们能够参与决策过程,从而使人们更加信任这些系统并对这些结果高度负责。这往往相当于输出人工智能通过培训所学会的规则,并使人类可以对这些规则进行审计,从而了解人工智能如何从未来的数据中得出结论,这些数据的范围超出了数据集。
       Wagner说,就Bluestem Brands而言,他能够从Lucidworks提供的当前系统中获得大约85%的解释,但他希望看到更多的解释。
       Wagner说:“使人们克服信任障碍是很难的。推荐某物的理由是什么?——我们对此所有用的信息越多,越容易有这样的体会。”
       治理问题
       如今,企业使用的大部分人工智能都是基于统计分析的。这些机器学习算法的用途广泛,如改善购物建议、搜索结果、计算信用风险、发现计算机网络中的可疑行为等等。
       为了提出建议,这些算法分析了特定的特征、数据字段、因素或在行业中被称为功能的东西。每个功能都具有特定的权重,这些权重有助于人工智能将事物归类或发现异常。因此,例如,在确定某动物是猫还是狗时,算法可能会以动物的体重为主要因素,然后是动物的大小,最后是颜色。
       因此,了解决定因素是一个简单的过程。但是各大公司尚未将与决策相关的因素列为工作重点。
       毕马威的Sokalski说:“我们注意到的主要趋势之一是企业缺乏对人工智能的内部治理和高效管理。我们发现,只有25%的公司正在投资开发控制框架和方法。”
       Sokalski说,这是商业流程成熟度的问题,而不是技术问题。“其本质就是在整个生命周期中构建内部功能,端到端治理以及人工智能的端到端管理。”
       最后的挑战,也是最困难的挑战,即常识。
       滑铁卢大学人工智能领域的加拿大研究主席Alexander Wong说:“因果推理可望而不可及,这就是我和其他人努力的方向。”
       Stefik说,如今,计算机系统很难将关联性和因果关系区分开来。闹钟的响声会导致太阳升起吗?
       Stefik说:“我们想找到将虚假的关联性与真实的因果关系区分开来的方法。甚至训练人来做正确的因果推理也是很难的。这是一个非常困难的问题。”
       Stefik说,这种通过一系列因果关系进行思考的能力是人们谈论通用人工智能时所谈论的内容。
       Wong补充说:“我们在这个方向上取得了不错的进展。但是,如果我不得不猜测的话,我会说,因果推理的最终形式将在一个时限内实现。”
       但是,即使可解释的人工智能仍处于起步阶段,这并不意味着公司应该被动等待。
       Wong说:“即使在目前的形式中,可解释性对许多商业流程仍然非常有用。如果你现在就开始使用这个形式,那么你所创建的系统将很超前,并且更加公平。谈到负责任的人工智能时,我的核心信念之一是,可解释性和透明性是人工智能的关键组成部分。”
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

快速回复 返回顶部 返回列表