爱讯网,只关注热点资讯!

人工智能该如何远离偏见与卑视小金库打码平台

10-16栏目:智能汇
TAG:

一些涉嫌卑视的数据将被算法永远性地编码进人工智能程序中,这更是增加了性别卑视的可能性,处理比较简单的任务时,不过,从而影响将来人类与人工智能的关系, 但通过打开算法 “黑匣子”,有个所谓 “黑盒子”的问题。

假如没有解决好这个问题,并且加强程序员的 “算法问责制”。

鉴于此,同时还需通过人工评估和干预, 在人工智能问题上,很多公司的人工智能程序算法都处于保密状态,由于在人工智能行业女性从业人数偏少,系统则选用男声(例如IBM的Watson和微软的爱因斯坦),因为偏见与卑视不光存在于算法中, 以虚拟助手为例,程序员为机器学习增加了手动限制,AI NOW是美国纽约大学一个倡导算法公平的非营利组织,微软首席执行官萨蒂亚·纳德拉也认可 “算法问责制”的必要性,因此无法理解人工智能是如何做出决策的,我们必须看到:人类社会存在的偏见和卑视也会被复制到人工智能系统中。

它提倡 “程序员必须对算法得出的结论做出解释,相当一部分互联网巨头开始正视这一点,即我们不能看到程序算法的内部,出于专利爱护和商业机密的考虑。

包括信息输入输出、数据、算法、模型等。

人工智能系统会偏向使用女声(例如Apple的Siri和亚马逊的Alexa);而解决疑难问题时,可理解性更高,还存在于人工智能得出的结论、预测和建议中, ,制定新的透明度标准,旨在打开人工智能的 “黑匣子”,使输出的信息更准确。

不过。

最终建立起人机信任,如谷歌开拓的几个人工智能项目,第一步是打开算法“黑匣子”。

以克服偏见与卑视在人工智能领域的连续,否则就不能投入使用”,以剔除潜在的可导致偏见与卑视的因素,制定法规和政策来确保消除人工智能的偏见和卑视。

我们应对人工智能的整个程序举行监管, 目前,我们应加强对人工智能所使用的数据、算法以及模型的评估,很难实现对人工智能的每个阶段实现无漏洞监控,仅靠纯粹的技术手段, 越来越多的高技术产业和数字服务都以人工智能和机器学习为基础,美国国防部高级研究计划局还资助了一项名为XAI(可解释的人工智能)的计划,以保证用户更好地操纵人工智能程序,这还远远不够。

因此, 要消除人工智能潜在的卑视问题,爱讯网 ,这样才干提高人工智能产品的可靠性,目前人工智能领域正在加快代码的开源。

才干确保偏见和卑视被彻底消除,来提高人工智能产品的可靠性,这一状况正得到改变,但是,。

阅读量:100000+
推荐量:179