快速发布收录 免费推广展示
早上好, 游客 <游客> [ 马上登录 | 注册帐号 ]
首页 搜索优化 正文

AI公司不断开发新爬虫绕过阻拦 网站运营跟不上

发布时间:2024-09-09 20:41 更新日期:2024-11-21 作者: 飘花顺富网 阅读:278 次

在网路建立的早期,大家有了一个不成文的协议,即一个名为“robot.txt”的文本文件——也就是拦截列表中将决定谁能够访问你的网站,这主要针对机器人/爬虫。一般网站主要面向搜索引擎开放,以让搜索引擎带来流量。但这个不成文的约定正在被人工智能公司打破。 

已经有许多网站为了保护权益正在试图阻止一家名为 Anthropic 的 AI 公司抓取网站内的内容。然而随着该公司不断开发新的爬虫,来不及更新“robot.txt”文件的网站成了被盗用资源的受害者。 
根据 404 Media 采访跟踪网络爬虫和抓取工具网站的 Dark Visitors 运营者,他在帮助其他网站运营者更新“robot.txt”期间发现,现状非常混乱。匿名运营着说道:“代理生态系统瞬息万变,因此网站所有者基本不可能手动跟上。” 
拿 Anthropic 距离,一些热门网站例如路透社等在 robot.txt 中组织了“ANTHROPIC-AI”和“CLAUDE-WEB”两个爬虫,他们曾由 Anthropic 的 Claude AI 聊天机器人使用,但目前该公司最活跃的爬虫实际上是“CLAUDEBOT”,因此这些网站都不会阻拦该爬虫。其他数百个复制粘贴拦截列表的网站也未能阻止该公司。 

404 Media 采访了许多网络行业从业者,他们均表示面对 AI 公司的这种行为,鼓励网站积极屏蔽此类机器人/爬虫。网络安全公司 StackAware 首席执行官 Walter Haydock 就表示支持在“robot.txt”中添加大量的可能屏蔽对象,并说道:“如果它们最终不存在,那么阻止它们也不会产生任何影响。” 
他还表示该屏蔽列表说到底也不过是互联网的一个约定俗成,“阻止 AI 公司的代理依赖于 AI 公司尊重 robot.txt 文件,并且你还需要知道所有的 AI 抓取代理。对于大多数公司来说,这种情况的可能性很低,因此我预计更多的创作者会将他们的内容转移为付费观看,以防止无限制的抓取。

共收录0个网站,0个公众号,0个小程序,0个资讯文章,0个微信文章
首页 关于我们 联系我们 收录标准 广告合作 免责声明 友情链接 TAGS标签
点击收藏小提示:按键盘CTRL+D也能收藏哦!
网站声明:本站所有资料取之于互联网,任何公司或个人参考使用本资料请自辨真伪、后果自负,不承担任何责任。在此特别感谢您对分类目录网的支持与厚爱!
CopyRight @ 2006-2025 www.phxss.com All Rights Reserved. 飘花顺富网版权所有。  黔ICP备19007148号-27