Dennis Schubert更新了“diaspora*”项目的危机,因70%的请求来自大型语言模型(LLM)机器人,导致平台崩溃。这些机器人无视robots.txt,疯狂抓取数据,甚至获取Wiki页面的编辑历史。尽管尝试了多种反制措施,效果不佳。他指出,大型科技公司急需数据以训练AI,给小网站带来困境。为抵御机器人,他建议生成无意义文本和使用JavaScript陷阱,警示开放网络的衰退。
完成下面两步后,将自动完成登录并继续当前操作。