近日消息,谷歌搜索引擎新上线的“智能摘要(Smart Extracts)”功能遭遇用户大量反馈,指出该功能时常生成明显错误的查询摘要内容。一个广为流传的例子是,它不当推荐使用粘合剂来解决披萨上奶酪脱落的问题,引发了关于其准确性的质疑。
本周早些时候,谷歌首席执行官桑达尔·皮查伊在接受采访时承认,这些“AI 摘要”功能产生的“幻觉”是大型语言模型(LLM)的“固有缺陷”,而大型语言模型正是“AI 摘要”功能的核心技术。皮查伊表示,这个问题目前尚无解决方案(is still an unsolved problem)。
这意味着尽管谷歌工程师一直在努力修复“AI 摘要”功能出现的各种奇怪且严重错误的答案,但此类问题仍会持续出现。
然而,皮查伊似乎淡化了这些错误的严重性。他表示:“‘AI 摘要’功能有时会出错,但这并不意味着它没有用处。我认为这并不是看待该功能的正确方式。我们取得了进展吗?是的,肯定有。与去年相比,我们在事实准确性方面的指标上取得了很大进步。整个行业都在改进,但问题还没有完全解决。”
尽管皮查伊对“AI 摘要”功能的实用性持乐观态度,但该功能出现的错误已经在网上引起了轩然大一波,许多用户纷纷展示了该功能生成各种错误信息的例子。这进一步损害了谷歌搜索引擎的信誉,谷歌搜索此前就因向用户提供垃圾结果而备受诟病。
人工智能顾问和 SEO 专家布兰妮·穆勒在社交媒体上写道:“人们期望人工智能的准确性远远超过传统方法,但事实并非总是如此! 谷歌正为了超越竞争对手 Perplexity 和 OpenAI 而在搜索领域进行一场冒险的赌博,但他们本可以将人工智能用于更大、更有价值的用例上。”
文明上网,理性发言,共同做网络文明传播者