谷歌/必应搜索的知乎专栏内容出现乱码 不知道是不是知乎故意这么做的
💡
原文中文,约1000字,阅读约需3分钟。
📝
内容提要
谷歌和必应搜索的知乎专栏内容出现乱码,可能是知乎故意为了避免被抓取。知乎已封禁除百度和搜狗之外的搜索引擎爬虫,但专栏仍有问题。乱码问题可能是知乎方面的问题,但具体原因不清楚。
🎯
关键要点
- 谷歌和必应搜索的知乎专栏内容出现乱码,可能是知乎故意为避免被抓取。
- 知乎已封禁除百度和搜狗之外的所有搜索引擎爬虫,但专栏内容仍有问题。
- 乱码问题可能是知乎方面的问题,具体原因不清楚。
- 用户在搜索结果中看到的乱码标题影响点击率,可能导致知乎流量损失。
- 知乎修改了robots.txt文件,完全封禁谷歌和必应等搜索引擎的爬虫。
- 知乎不愿意被抓取内容用于训练AI模型的可能性被提及。
- 知乎专栏的子域名没有robots.txt文件,任意搜索引擎可以抓取内容,但出现乱码。
- 目前不清楚乱码是故意屏蔽还是不慎修改导致的,影响了用户和创作者体验。
➡️