当前位置: 代码网 > 科技>人工智能>智能机器人 > 研究发现,OpenAI 的 GPT-4o 道德推理能力胜过人类专家

研究发现,OpenAI 的 GPT-4o 道德推理能力胜过人类专家

2024年06月24日 智能机器人 我要评论
近期的一项研究表明,OpenAI最新的聊天机器人GPT-4o能够提供道德方面的解释和建议,且质量优于“公认的”道德专家所提供的建议。

6 月 24 日消息,近期的一项研究表明,openai 最新的聊天机器人 gpt-4o 能够提供道德方面的解释和建议,且质量优于“公认的”道德专家所提供的建议。

据 the decoder 当地时间周六报道,美国北卡罗莱纳大学教堂山分校和艾伦 ai 研究所的研究人员进行了两项研究,将 gpt 模型与人类的道德推理能力进行比较,以探讨大语言模型是否可被视为“道德专家”。

代码网汇总研究内容如下:

研究一

501 名美国成年人对比了 gpt-3.5-turbo 模型和其他人类参与者的道德解释。结果表明,人们认为 gpt 的解释比人类参与者的解释更符合道德、更值得信赖、更周到

评估者也认为人工智能的评估比其他人更可靠。虽然差异很小,但关键发现是 ai 可以匹配甚至超越人类水平的道德推理。

研究二

将 openai 最新的 gpt-4o 模型生成的建议与《纽约时报》“伦理学家”专栏中著名伦理学家 kwame anthony appiah 的建议进行了比较。900 名参与者对 50 个“伦理困境”的建议质量进行了评分。

结果表明,gpt-4o 在“几乎每个方面”都胜过人类专家。人们认为 ai 生成的建议在道德上更正确、更值得信赖、更周到、更准确。只有在感知细微差别方面,人工智能和人类专家之间没有显著差异。

研究人员认为,这些结果表明 ai 可以通过“比较道德图灵测试”(cmtt)。而文本分析显示,gpt-4o 在提供建议时使用的道德和积极语言比人类专家更多。这可以部分解释为什么 ai 的建议评分更高 —— 但不是唯一因素。

需要注意的是,这项研究仅仅针对美国参与者进行,后续仍需进一步研究人们如何看待 ai 生成的道德推理的文化差异。

论文地址:https://osf.io/preprints/psyarxiv/w7236

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com