我们为什么不相信算法?
人工智能(AI)推动了风险感知的信任程度
算法似乎总是正确的,但现实总是充满了不确定性——投资、开车、做手术、评估工作以及申请大学offer都充满了太多的变化因素。
那么,人们是否愿意求助于人工智能,以获得更好的结果呢?近期发表在《心理科学》杂志上的一项研究发现:人们还没有准备好接受人工智能的计算结果。
芝加哥大学的Berkeley J. Dietvorst和Soaham Bharti说:
“这些结果表明,人们不愿意在固有的不确定领域采纳AI算法并不是因为人们在等待技术改进,或者等待更好的算法。“
”鉴于投资、医疗决策和其他领域天生就存在很多的不确定性,因此人们在这些领域使用人工智能的可能性就更低,哪怕是目前最好的算法。”
我们知道,人工智能算法确实优于人类的预测,人工智能使用的工具更先进,遵循的规则更合理,错误率都比人类更低。
研究人员说:“拒绝采用这些(优于人类)的算法会带来更高的成本。例如,很多人都不敢使用自动驾驶技术……尽管研究表明,自动驾驶系统挽救了成千上万人的生命。”
拒绝人工智能是因为他几乎不犯错
那么,是什么阻止了人们对人工智能的接纳程度,反而偏爱人类自己的技能和本能?
研究人员认为,这其中的原因在于我们相信自己会对不确定的决定承担更多风险,我们不相信计算机会为我们承担这种风险。因为人工智能一旦犯错,他们的错误就更加的显眼,哪怕人工智能犯错的情况非常罕见。
Dietvorst和Bharti在谈及相关的决策风险时说:
“我们建议人们逐渐降低预测误差的敏感性,即,渐渐不再挑剔预测的准确性,并且接受一定程度的误差。这会让人们偏爱那些近乎完美的方案(即,一个几乎没有错误的方法)。”
“与之相反,当人们觉得算法不可能产生近乎完美的答案时,他们往往会选择风险更高、往往表现较差的决策方法(如人类判断)。”
研究人员通过9项实验发现:“人们觉得近乎完美的预测(可能产生的最好的预测,几乎没有误差)之间存在的主观差异更大,而误差较大的预测之间的主观差异却相对较小。”
也就是说,预测越是精确,人们越是需要更高的准确度;当误差较大时,反而会更能够马马虎虎的接受。
研究结果显示,人们不太可能在难以预测的(随机或方程)领域中选择最佳的决策者,相反,他们自认为的近乎完美选择更可能来自于自己的喜好,而且选择结果有很大的差异。最终导致了人们在不确定的领域中选择那些风险更大、结果较差的决策者(例如人为判断)的倾向。
研究人员总结说:“这些结果表明,说服人们在固有的不确定领域使用算法。并非意味着拿出更好的技术或出现更好的算法。”
这种拒绝人工智能的行为会带来巨大的影响,因为如果人们不愿意通过人工智能预测不确定性的话,这些领域就无法利用技术进步获得更多的收益。”
机器有道德吗?
最近的另一篇文章探讨了无人驾驶的困境。
在这种困境中,自动驾驶的车辆必须在道路上做出高风险的道德决定,例如,应该伤害谁、拯救谁(例如行人或乘客)。
Julian De Freitas等人认为,这些担忧会扰乱工程和政策决策。
他说:”我们教人类如何开车时,不会让驾驶员被迫进行选择——不会告诉他应该杀了谁。这是因为计划一个不可能、无法察觉和无法控制的情况会扰乱我们训练新司机的目标——尽量减少伤害任何人。”
研究人员说,这样的目标同样适用于自动驾驶系统。
声明:部分文章和图片来源于网络,版权归原作者所有,如有侵权,请联系删除:wzwt58@qq.com 。本站发布此信息目的在于传播更多信息,与本网站立场无关,不保证该信息(包括但不限于文字、数据及图表)准确性、真实性、完整性等。本文地址:https://www.zilezai.com/xlzs/12730.html