6月12日消息,网络上再次掀起关于谷歌AI搜索引发的趣味讨论——你还记得那个因AI提示而走红的“胶水披萨”事件吗?此前,知名网红凯蒂·诺托普洛斯勇敢尝试,根据谷歌AI的意外建议制作并品尝了这份奇特的“胶水披萨”,迅速在网络上引发了轩然大波。
而今,这一话题重燃,焦点转向了谷歌AI系统令人啼笑皆非的学习能力——它不仅未纠正先前的误导,反而吸收了这一网络热潮,展示了AI“幻觉”现象背后的复杂性与挑战。
诚然,人们很少会查询“往披萨里加多少胶水”这种问题,但考虑到最近“胶水披萨”的热度,也并非完全不可能。安全研究员科林·麦克米伦 (Colin McMillen) 发现,如果你询问谷歌应该往披萨里加多少胶水,并不会得到正确的答案 —— 那就是绝对不要加胶水。相反,谷歌会引用凯蒂的恶搞文章,建议用户加八分之一杯胶水,这显然是很危险的。
这意味着网友向谷歌报告其人工智能出错,实际上是在“训练”它继续犯错。
另一个问题是,由于采用了人工智能技术,谷歌现在似乎无法回答有关其自身产品的问题了。The Verge 的编辑询问了如何在隐身模式下截取 Chrome 浏览器的截图,谷歌的人工智能给出了两个答案都错了。其中一个建议在普通模式的 Chrome 标签页中截取截图,另一个答案则坚称在 Chrome 隐身模式下根本无法截屏。
谷歌首席执行官桑达尔·皮查伊此前在接受采访时承认,这些“AI 摘要”功能产生的“幻觉”是大型语言模型(LLM)的“固有缺陷”,而大型语言模型正是“AI 摘要”功能的核心技术。皮查伊表示,这个问题目前尚无解决方案(is still an unsolved problem)。
文明上网,理性发言,共同做网络文明传播者