专业提供QQ活动,QQ新闻,QQ技巧,电脑技巧以及游戏资讯,让我们的Q生活更加精彩!

百度删除死链可以用robots协议

2020-09-26 00:00:00 围观77

百度删除死链可以用robots协议

这个是小编手里的测试站,由于之前采集文章删除数据忘记保留地图

就算保留地图提交10多万链接也不可能快速删除的,删除效果十分差

之前可以使用规则删除死链,但是小编发现可以利用robots协议屏蔽

然后通过zblog蜘蛛插件发现,所有引擎都不会抓取之前死链真是美滋滋

不过你文章要有如下规则

QQ截图20201010100147

www.llxbw.com/news/1.html

www.llxbw.com/news/hqgqhhq1.html

1.文章是有规则,可以使用便民工具进行批量生成提交

2.比如小编的网站是第二种,目录是有规则的 文章是没有规则的

一般目录都是有规则的,所以解决起来是十分简单

如果不会写robots怎么办?

站长工具:http://tool.chinaz.com/robots/ 

使用站长工具robots生成即可

百度删除死链可以用robots协议

限制目录,之后你网站news目录的内容蜘蛛都不会抓取

因为基本搜索引擎都遵守robots规则,然后死链没多久就直接删除了

那些狗屁软件和你手动以及收费的软件都是垃圾玩意

并且删除效果已经给大家看了,将近1个星期才删除200

这个方法适合拥有几千以上死链删除,几十个大家还是动手逐个复制

但是这个方法是最保险的删除,因为百度会根据抓取你之前的URL

因为之前抓取的,蜘蛛来访问已经是404会全部放出来

质量较差,大量死链会导致你网站根本无法正常收录

并且排名除了首页之外,其他内页都是死链

死链基本等于无效收录,大家可以看看收录正常的网站基本没啥死链

如果这个方法解决你的问题,记得点个赞原创真TM不容易


#