人工智能被发现使用潜在危险的“捷径”来解决复杂的识别任务
人工智能被发现使用潜在危险的“捷径”来解决复杂的识别任务
约克大学的研究发现,即使是最智能的人工智能也无法与人类的视觉处理竞争。约克大学研究报告的合著者詹姆斯 · 埃尔德教授说,深度卷积神经网络(dcn)看待事物的方式与人类不同(通过配置形状感知) ,这在现实世界的人工智能应用中可能是有害的。
这项研究由约克大学人类和计算机视觉研究主席、约克大学人工智能和社会中心联合主任埃尔德和芝加哥洛约拉学院心理学助理教授、约克大学VISTA前博士后尼古拉斯·贝克共同进行。发现深度学习模型不能捕捉人类形状感知的配置本质。
为了进行研究通过人脑和DCNN如何提高感知系统整体的、配置性的物体属性,该研究使用了一个被称为“Frankensteins“的视觉可以刺激治疗方法。
“弗兰肯斯坦可以被理解为拆卸和以错误方式归还的物体,”埃尔德说。 “所以他们有所有正确的本地功能,但组件放在错误的位置。”
研究人员发现,虽然人类视觉系统对弗兰肯斯坦的判断是不同的,DCNN 却没有,这表明人工智能对物体属性的配置不敏感。
“我们的研究结果解释了为什么深度人工智能模型在特定条件下失败,并指出需要考虑物体识别以外的任务来理解大脑的视觉处理,”埃尔德说。“在处理复杂的识别任务时,这些深度模型往往走捷径。虽然这些捷径在许多情况下可能有效,但在我们目前与行业和政府合作伙伴合作的一些现实世界的人工智能应用中,它们可能是危险的。”。
其中作为一个应用是交通网络视频信息安全管理系统。“繁忙的交通场景中的物体--车辆、自行车和行人--相互阻挡,以杂乱无章的碎片形式出现在司机的眼中,“埃尔德解释说。“大脑需要对学生这些碎片时间进行分析正确分组,以识别物体的正确类别和位置。用于城市交通企业安全环境监测的人工智能控制系统工作如果他们只能单独感知这些碎片,将无法及时完成学习这一重要任务,可能会产生误解脆弱的道路使用者的风险。“
根据相关研究工作人员的说法,旨在使网络更像大脑的训练和架构的修改并没有充分考虑资源配置信息处理,而且企业没有形成一个社会网络技术能够更加准确地预测逐个试验的人类物体判断。我们推测,为了与人类的可配置敏感性相匹配,必须对网络系统进行教学训练,以解决问题类别识别以外的更广泛的物体任务,“埃尔德指出。
相关文章
- 构建中国特色、世界一流的法学学科体系 加快设置数字法学、网络法学、人工智能法学、区块链与法律、算法规制与法律、数字经济与法律治理等交叉学科_1
- 大连理工大学人工智能(上海)区块链研究分院落户上海
- 深度分析区块链与人工智能的共生(深度分析区块链与人工合作)
- 成都今年加快发展区块链、5G、8K、人工智能(成都区域发展)
- 区块链在人工智能时代的作用(区块链+开启智能新时代)
- 清华大学:2018中国人工智能AI发展报告(电子版全文)
- 人工智能和区块链如何在2020年彻底改变移动应用产业-
- 国家发改委:鼓励平台企业加快人工智能、云计算、区块链等领域重点项目建设
- 从图灵机到人工智能,和它的“开荒”故事(图灵提出人工智能)
- 智能金融应用不断深化,警惕运用人工智能过度逐利