研究称人类过度信任AI 生死抉择中的惊人盲从【微发信息网】
推广 热搜: 广州  SEO  贷款  深圳    医院  用户体验  网站建设  贵金属  机器人 

研究称人类过度信任AI 生死抉择中的惊人盲从

   2024-09-11 互联网微发信息网89
核心提示:一项由加州大学默塞德分校开展的研究揭示,约67%的参与者在模拟生死决策过程中,愿意让机器人改变他们最初的选择,即便机器人的建议可能是随机且错误的

一项由加州大学默塞德分校开展的研究揭示,约67%的参与者在模拟生死决策过程中,愿意让机器人改变他们最初的选择,即便机器人的建议可能是随机且错误的。该研究发表于《Scientific Reports》杂志,题为“Overtrust in AI Recommendations about Whether or Not to Kill: Evidence from Two Human-Robot Interaction Studies”。通讯作者Colin Holbrook教授警告,社会应警惕过度信赖人工智能可能带来的风险,尤其是在生死攸关的决策上,强调维持理性的质疑态度至关重要。

研究涉及两项实验,参与者需对快速闪现的目标图片判断敌友,并决定是否发射导弹攻击。实验增加了难度,确保判断具有挑战性。在参与者作出决策后,机器人会提出意见,有时甚至会坚持与参与者不同的看法。结果显示,无论机器人形态如何,其影响导致约三分之二的参与者改变主意,尤其当机器人具有人类特征时,这种影响更为显著。当机器人同意参与者的初始决策时,后者则几乎无一例外地坚持原判,信心倍增。

研究团队事先向参与者展示了无人机误击造成的平民伤亡图片,强调模拟的真实性及避免误伤的必要性。后续的反馈证明,参与者认真对待每一个决定,突显出在追求准确判断、避免伤害的真诚意图下,对AI的过度信赖现象仍然存在。

Holbrook教授指出,该研究触及更广泛的议题,不仅限于军事决策,还关联到执法、医疗紧急处理等关乎生死的场景,乃至日常生活中的重大决策,如购房选择。他强调,这是关于在不确定性高风险情境下,对不完全可靠AI的信任探讨。随着人工智能在生活中的角色日益重要,Holbrook提醒,尽管AI技术取得显著进展,其“智慧”缺乏道德准则和全面的世界观理解,每次授权AI介入生活某方面时,都应审慎考虑其能力局限。公众对于人工智能的信任度及其在社会中的角色,成为亟待深入讨论的话题。

 
免责声明:以上所展示的信息由网友自行发布,内容的真实性、准确性和合法性由发布者负责。微发信息网对此不承担任何保证责任。任何单位或个人如对以上内容有权利主张(包括但不限于侵犯著作权、商业信誉等),请与我们联系并出示相关证据,我们将按国家相关法规即时移除。

本文地址:http://www.wlchinahc.com/news/hangyezixun/202409/248915.html
反对 0举报 0 收藏 0 打赏 0
 
更多>同类资讯
推荐图文
推荐资讯
点击排行

网站首页  |  付款方式  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  RSS订阅  |  违规举报  |  粤ICP备11090451号
免责声明:本站所有信息均来自互联网搜集,产品相关信息的真实性准确性均由发布单位及个人负责,请大家仔细辨认!并不代表本站观点,微发信息网对此不承担任何相关法律责任!如有信息侵犯了您的权益,请告知,本站将立刻删除。
友情提示:买产品需谨慎
网站资讯与建议:3123798995@qq.com 客服QQ:3123798995点击这里给我发消息3123798995点击这里给我发消息