7月25日消息,在今年2月,谷歌宣告了一项与Reddit的重大合作,根据协议,Reddit的数据被用于滋养谷歌的AI模型,并且Reddit内容在谷歌搜索结果中的曝光率显著提升。这项合作涉及的资金规模约为6000万美元,自此之后,Reddit在谷歌搜索引擎中的可见度迎来了飞跃式增长。
而最新消息称,Reddit 已禁止其他搜索引擎检索其网站内容。外媒 404 Media 最先报道了此行为,并指出 Reddit 已更新其 robots.txt 文件(网站与爬虫的协议文件),阻止所有机器人抓取网站的任何内容。
查询 Reddit 网站的 robots.txt 文件获悉,该平台称“Reddit 相信开放的互联网,但不相信滥用公共内容。”其“Disallow”选项设置为“/”,也就是禁止检索网站根目录下的所有文件。
该文件在今年 6 月首次更新,Reddit 解释说,这一更改是由于“抓取 Reddit 内容的商业实体明显增多并且内容被滥用”。
外媒 9To5Google 则称,Bing、DuckDuckGo、Mojeek 和 Qwant 等搜索引擎都受到了影响,使用“site:reddit.com”搜索内容时,要么不显示最新内容,要么不显示完整的网站结果。
最新测试,Bing、DuckDuckGo 已重新显示“site:reddit.com”搜索内容。
Reddit 发言人 Tim Rathschmidt 在给 The Verge 的一份声明中表示:“这与我们最近与谷歌的合作完全无关。我们一直在与多个搜索引擎进行讨论,但无法与所有人达成协议,因为有些人无法或不愿意就他们使用 Reddit 内容(包括他们对 AI 训练的使用)作出可执行的承诺。”
文明上网,理性发言,共同做网络文明传播者