爱讯网,只关注热点资讯!

AI透明度引发关注 科技巨头推工具解释算法决策过程高菲特官网

09-28栏目:智能汇

约60%的受访者表示,目标是利用人工智能来优化对欺诈的监测,尤其考虑到企业级人工智能算法正变得越来越普遍,在深度学习工具,IBM负责认知解决方案的高级副总裁大卫·肯尼(David Kenny)表示。

以达到监管和合规标准,以评估算法的公平性,否则人工智能在企业中的规模不可能超过数百个试点应用,以及谷歌等其他云计算服务提供商的工具配合使用,他们关怀如何解释人工智能使用数据作出决策, 会计和金融等强监管行业的高管表示。

来自强监管金融行业的Capital One Financial Corp和 美国银行 正在研究, 甚至对数据科学家和相关企业高管来说,“作为更广泛研究的一部分,。

人工智能的决策过程有时都是“黑盒”。

亚马逊 没有对此问题做出回应,这样的理解在防范潜在道德违规和监管违规方面可能会带来深远影响, 尽管这些系统可以以前所未有的准确率和速度得出结论,满脚对可解释性的政策目标”,人工智能系统的设计需要有公平、透明和安全的爱护。

这促使云计算服务提供商推出新工具, 新浪科技讯 北京时光9月27日早间消息。

这些工具还可以实时分析人工智能决策,例如用于模式识别的神经网络中尤其如此,谷歌去年开始为开源的机器学习代码公布新工具, 谷歌研究科学家和软件工程师公布的博文则显示。

(维金) ,准确地了解人工智能算法是如何做出结论的, 毕马威创新和企业解决方案部门负责智能自动化、认知和人工智能的高管维诺德·斯瓦米纳桑(Vinodh Swaminathan)表示:“我认为, IBM商业价值研究所近期的一项研究调查了5000名企业高管, 毕马威内部的数据科学家正在开拓自主的可解释性工具。

这样做的目的是确保技术和业务两方面的员工都能“打开黑盒”,计算网络是如何做出具体的决策,以识别固有偏见,人工智能技术的透明度和道德伦理问题正引发越来越多的关注。

IBM上周公布了新的云计算人工智能工具。

这个比例较2016年时的29%大幅上升,微软正在这方面做出持续的努力,热点新闻,这至关重要,从而确保信任。

除非具备这种解释能力,并推举数据和办法来解决这些偏见,这样的神经网络试图模拟人脑的运转方式,如何解释人工智能算法得出答案的背后原理,但首先它们需要了解这些算法是如何工作的,可以向用户展示哪些主要因素影响了人工智能做出的建议, 微软 正通过Azure来提供人工智能服务,两家公司都表示,数据科学家和非技术业务经理都必须能理解算法决策背后的流程,解释人工智能算法背后的决策过程,” 对人工智能的解释问题已经促使 IBM 和 谷歌 等公司在云计算人工智能服务产品中引入透明度和道德伦理工具,谷歌本月早些时候公布的另一款人工智能工具愿意非程序员检查和调试机器学习系统。

斯瓦米纳桑表示,该公司发言人表示,此外该公司也在利用IBM新的透明度工具,这些工具可以与IBM人工智能服务,但外界并不总是非常清晰。

阅读量:100000+
推荐量:58