发布时间:2020-09-22    所属分类:SEO资讯 

为什么写了robots还是被百度抓取收录了?

为什么写了robots还是被百度抓取收录了?  第1张

今天在搜外问答看到了这样一个问题,回答的很多,但是很多人都说错了一个概念。


我今天来给大家详细讲解下,先了解几个概念

1、robots只是禁止抓取,不是禁止收录

2、另外还有nofollow的作用不是不抓取这个链接,是不从这个链接传递权重


了解这2个概念后,我们再来讨论怎么处理这类收录问题:

robots写正确的同时,不要在任何一家收录的网站发外链,友链,也不要主动提交百度,这样才可以保证不被搜索引擎收录,为什么呢?


大家百度查一下淘宝,如图:

为什么写了robots还是被百度抓取收录了?  第2张


按照道理淘宝写了robots怎么还是收录,因为有大量的链接指向淘宝官网,而且这些外链可能权重都比较高,

为什么写了robots还是被百度抓取收录了?  第3张


全部都禁止了,依然收录了1亿多条链接


看到这里,是不是有感而发,我们怎么从百度导流到你的淘宝店!



除非注明,本站所有文章皆为本人原创,可随便转载但请保留链接或本人名字,加nofollow亦可,谢谢!



相关标签: robotsrobots收录淘宝SEO广汉SEO广西SEO广元SEO广州SEO贵港SEO贵溪SEO桂林SEO桂平SEO果洛SEO哈密SEO海北SEO海城SEO海东SEO海口SEO海林SEO海伦SEO海门SEO


发表评论:

推荐文章
SEO木木
    SEO木木微信二维码

    常州SEO木木


    从事SEO行业八年,希望分享各类SEO理念知识,点击下方图片或扫码与我交流SEO技术


与我详谈SEO

常州SEO木木qq


常州SEO木木qq

特别推荐
加我的微信:SEO-jiangd详谈网络营销