谷歌/必应搜索的知乎专栏内容出现乱码 不知道是不是知乎故意这么做的

💡 原文中文,约1000字,阅读约需3分钟。
📝

内容提要

谷歌和必应搜索的知乎专栏内容出现乱码,可能是知乎故意为了避免被抓取。知乎已封禁除百度和搜狗之外的搜索引擎爬虫,但专栏仍有问题。乱码问题可能是知乎方面的问题,但具体原因不清楚。

🎯

关键要点

  • 谷歌和必应搜索的知乎专栏内容出现乱码,可能是知乎故意为避免被抓取。
  • 知乎已封禁除百度和搜狗之外的所有搜索引擎爬虫,但专栏内容仍有问题。
  • 乱码问题可能是知乎方面的问题,具体原因不清楚。
  • 用户在搜索结果中看到的乱码标题影响点击率,可能导致知乎流量损失。
  • 知乎修改了robots.txt文件,完全封禁谷歌和必应等搜索引擎的爬虫。
  • 知乎不愿意被抓取内容用于训练AI模型的可能性被提及。
  • 知乎专栏的子域名没有robots.txt文件,任意搜索引擎可以抓取内容,但出现乱码。
  • 目前不清楚乱码是故意屏蔽还是不慎修改导致的,影响了用户和创作者体验。
➡️

继续阅读