当前位置: 代码网 > 科技>人工智能>机器学习 > AI“幻觉”难解:谷歌搜索仍推荐用户往披萨里加胶水

AI“幻觉”难解:谷歌搜索仍推荐用户往披萨里加胶水

2024年06月12日 机器学习 我要评论
还记得谷歌的人工智能搜索结果告诉用户往披萨里加胶水的那件事吗?当时国外网红凯蒂・诺托普洛斯 (Katie Notopoulos) 还真做了一个“胶水披萨”并吃掉了它,这件事在网上引起了热议。不过现在出现了一个问题:谷歌的人工智能正在学习这些网络热梗。

6 月 12 日消息,还记得谷歌的人工智能搜索结果告诉用户往披萨里加胶水的那件事吗?当时国外网红凯蒂・诺托普洛斯 (katie notopoulos) 还真做了一个“胶水披萨”并吃掉了它,这件事在网上引起了热议。不过现在出现了一个问题:谷歌的人工智能正在学习这些网络热梗。

诚然,人们很少会查询“往披萨里加多少胶水”这种问题,但考虑到最近“胶水披萨”的热度,也并非完全不可能。安全研究员科林・麦克米伦 (colin mcmillen) 发现,如果你询问谷歌应该往披萨里加多少胶水,并不会得到正确的答案 —— 那就是绝对不要加胶水。相反,谷歌会引用凯蒂的恶搞文章,建议用户加八分之一杯胶水,这显然是很危险的。the verge 通过搜索验证了这一点。

the verge 称,这意味着网友向谷歌报告其人工智能出错,实际上是在“训练”它继续犯错

另一个问题是,由于采用了人工智能技术,谷歌现在似乎无法回答有关其自身产品的问题了。the verge 的编辑询问了如何在隐身模式下截取 chrome 浏览器的截图,谷歌的人工智能给出了两个答案都错了。其中一个建议在普通模式的 chrome 标签页中截取截图,另一个答案则坚称在 chrome 隐身模式下根本无法截屏。

代码网注意到,时承认,这些“ai 摘要”功能产生的“幻觉”是大型语言模型(llm)的“固有缺陷”,而大型语言模型正是“ai 摘要”功能的核心技术。皮查伊表示,这个问题目前尚无解决方案(is still an unsolved problem)

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com