百度10月26日搜索引擎官方反作弊小组解答(官方来源)

以下内容来源百度官方


交流问题分类:1.   页面收录问题2.   排名和权重问题3.   站长平台工具-死链工具使用问题4.   站长平台工具-安全检测工具问题5.   原创内容的排名问题6.   网站作弊被k问题7.   百度网页搜索对外链的看法8.   百度网页搜索对站长提交的申诉问题的处理


一.页面收录问题

1、404页面问题:


    Q:当我们由于变更产生404之后,百度会间隔多长时间识别出来?并且需要识别几次才会将其删除?对有些尚未做好的专题页面,可能会临时设置为404页面,之后很快将页面恢复,但这些专题页面中有一部分很快就能够恢复,还有一部分就需要很长时间才可被收录,因此有重大新闻时,会紧张重大专题被及时收录的情况。


    lee:不会有固定的时间,会根据网页的和所在频道的更新频率,去确定删除的时间,未做好或者非作为死链的页面,尽量不要用404的返回码,希望尽可能用503的返回码,这样spider能够比较好的去识别。

2、时效性问题

    Q:目前百度收录上的时效性对百度和站长来说是双赢,但对每年定期举行的重大事件(例金钟节),在固定时间能否将这种事件的权重或算法进行优化?

    lee:这方面如果目前没有做到的话,搜索团队会尽可能的去完善这方面的体验,也会去通过一些工具的形式、协议等简单的方式,提高这种体验,去实现页面的及时更新。

    Q:对一些新闻,编辑可能后期需要对新闻的标题进行修改,但百度网页收录的更新很慢,较长时间无法将页面进行更新。

    lee:像网页换title 理论上应该是要及时去更新,但目前做的还不太到位。

3、301跳转问题的解决情况

    lee:百度站长平台会尽快上线关于301跳转的工具,并会推出网站改版工具。

4、图片、flash较多,文字内容较少的的页面的收录问题:

    Q:目前很多页面可能会没有很多的文字,比较多图片和flash,对没有很多文字的页面,搜索引擎能很好的将这个页面中的资源识别出来吗?

    lee:目前在推一个工具,将spider抓取日志展示出,去看下是否符合站长的抓取意愿,且对某些js较多的网站,假设目前收录不好,可先尽量减少js的使用。

5、对一个网站数量较多的同一类型的页面收录量达到一定值之后,收录量就会增加的很缓慢

    Q:比如:人人日志,上千万的数据,用了一年多的时间目前收录了几百万,且大部分内容都是很高质量的,但收录量到一个值之后,就没有增加,这个是什么原因?

    lee:人人之前有一些页面比较封闭,这两年才开始开放,但是spider根据之前的日志分析,对人人网的改动反应偏慢,所以推出了sitemap,希望大家通过sitemap将大家想进行索引的数据进行主动推送。

    Q:姓名类的产品,通过sitemap提交之后,上千万的数据还是收录了700w+,会不会被认为这些页面是相似的页面。

    lee:互联网资源很多,相似的产品很多,由于资源有限,会尽可能优先选取有价值的页面去抓取。一次提交的页面量很大,搜索引擎需要一定的时间去收录,搜索引擎可能会每天设置一定的压力上线去抓取,避免对站长产生太大的压力,可以尝试使用百度站长平台的抓取压力调节工具调试自己网站的抓取压力,增加压力,我们这边可以适当提高自己的压力加快抓取。


二、排名和权重问题

    Q:nofllow  是否会浪费权重

    lee:不会

有必要解释一下:之前有争论说nofollow会不会浪费PR,所以就找百度官方确认了一下,nofollow会不会浪费权重。百度会把应该分给已经nofollow链接的权重分配给其他链接,而不会像之前争论的谷歌的处理方法,链接nofollow后,本应该得到的PR凭空消失了。

    Q:404页面不去处理的时候,会对网站权重产生影响吗?

    lee:搜索中出现的无结果页面,是对用户最大的伤害,这种可能就会被认为该网站内容管理不好。


三、站长平台工具-死链工具使用问题

    Q:404页面是不是必须要提交,才可以很好的被删除。目录下很多垃圾的标签,做了404设置,但是不清楚被收录的有多少,能不能把垃圾标签页面都导出来。

    lee:检测死链-spider一条条去访问,确定是否是死链。建议大家主动去提交死链,站长了解自身网站的情况,可以比较好的进行提交,这个工具是为了弥补系统的问题。目前我们也在探讨能不能推出比较简单的工具,帮助站长解决这种问题。


四、安全检测工具问题


    lee:网站被黑被挂马的情况比较多,会在搜索引擎中展现出一些比较难看的东西,对站点本身是一个损失,也会影响搜索引擎对这个站点的判断,对用户也是一种伤害,而且目前这种问题也越来越多。因此推出了安全提醒。但这些标记会对网站影响很大,但我们的目的是希望站长能够很快的将问题进行解决。目前与scanv联合推出了两个安全方面的工具:网站安全监测、漏洞监测工具,希望网站能够重视这个问题。

1、检测提示

    Q:安全检测提醒我有挂马,但不告诉哪个页面的问题,我不太可能去一个个的检测或者全部屏蔽。

    lee:目前有些检测提示描述的不够详细,我们现在会一块根据站长的需求去改进工具的使用和体验。

    Q:网站有上千个网站,是怎么抓取网页检测,全检测,还是选代表性的网页?

    scanv:会选取一些首页,还有百度推送的页面。

    lee:安全检测抓取的网页量不大,每天几百次差不多就能检测完,我们的搜索结果也会送至检测,但是会根据网站的表现计算频率。

2、漏洞检测

    Q:漏洞检测会不会有评级机制,能够分出优先级。之前检测出的漏洞,但运维人员不知道怎么去解决,但seo需要了解漏洞对网站收录和流量的影响。

    lee:漏洞检测的有些结果写的确实不容易理解,需要将语言改进的可以理解。            scanv:现在对于极小的问题不去报,但其他安全工具可能还是会去报。


五、原创内容的排名问题

    Q:原创的页面,理论应该能够排名很好,但是被其他网站超过,请解释一下?

    lee:原创内容被其他转发网站超过,目前这种问题存在很多,希望能通过这个目前在做的生态项目进行解决。

    生态项目简介:目前互联网的垃圾比较多,且很多站长做内容是为了搜索引擎而不是用户。提出互联网生态的课题,去解决这个问题,将互联网的流量分给真正做内容的网站,对资源多的网站给予很好的待遇,对某个关键词,去将互联网中最好最佳的资源匹配出来。


六、网站作弊被k问题

1、以下这样的网站会不会被k?

    Q:有些网站没有控制用户的行为,可能会产生spam 的情况,数据量太大,垃圾标签+分页的量在700w+的水平,整体提交担心权重被k。

    lee:很多网站喜欢去做tag,但非用户行为,而是直接抓的网页搜索结果,虽然tag写的好,但是内容不相关,也属于一种作弊。

2、作弊页面的处理:

    Q:网站流量下滑,自查后发现是站点的内容的原因,这些页面要怎么处理,建议404 还是自己屏蔽,还是都能够被认可是对这些内容的改善?

    lee:这两种都可以。假设一个目录下的一些资源存在作弊情况,可能会引起一些规模的资源被屏蔽,搜索引擎认为一个网站有作弊行为,通常是哪有问题,会屏蔽哪,但如果作弊内容多,可能会将整个网站k掉。

3、网站被k之前的提醒

    Q:百度算法升级后,假设有一个站被k,站长才会想去改善这个产品,对这种情况有没有作弊的预警,可以让站长提前去改善。

    lee:目前算法升级等有较大功能更新,会发布公告告知,但还没有做到预警,11月份会与反作弊小组一块在百度站长平台推出一个预警工具。

4、百度对站群的看法

    lee:站群只是一个现象,主要看是否进行了作弊,例如搜狐,网站也很多,但没有被k过。只要站群能够用正当的手段去做,真正的给用户做内容,是不会被k掉的。

七、百度网页搜索对外链的看法

    Q:百度认为seo的外链怎样做比较合适?

    lee:任何搜索引擎,对超链计算有基本的准则,链接是否真心实意 的推广网站,若存在利益的交换,搜索引擎都会进行识别,目前的买卖链接、黑链 是无效,希望大家能够真正赢得其他站长的推荐。

    Q:外链是否能够带给网站的评分方面的问题?

    倪英伟:很多这种需求的出发点是为了与搜索引擎博弈,去做搜索引擎,会走偏路,透过这种工具去映射搜索环境不太可能,工具只是作为参考,不会直接等同于他的算法。希望大家善用工具,积极的去沟通。不要用工具去想映射,工具的缺陷可以直接提出来进行改善。


八、百度网页搜索对站长提交的申诉问题的处理

    Q:目前百度对申诉问题是的处理情况是什么样的?

    lee:每天有上千的投诉,只有10%是有效投诉,无效信息太多,导致处理较慢,希望大家能够尽可能去提交有效的信息,减少无效的工作量。