欢迎光临
我们一直在努力

腾讯微博“百度说”,SEO与百度的故事

在腾讯微博上面,robin主持了一个“百度说”http://t.qq.com/baidusays,里面有很多关于百度官方透露的一些实质性的消息和百度优化方面的一些技巧,整理一下,给大家看看,最好是每一条都看。

  我是 Robin ,希望主持的这个“百度说”,能给大家有所帮助。

  Robots 掉的网页,如果互联网上其他网页链接并描述了这个网页的内容,我们会把这些描述信息建入索引,但 Robots 掉网页我们不会抓取,网页内容也不会收录。当你网站上的内容对用户有用时,用户会推荐给别人,推荐的形式可能多种多样:IM软件上推荐给自己的朋友、在论坛里发帖推荐、写博客介绍等。这些推荐,都会被搜索引擎用来判断网页/网站价值的高低。

  不把 Meta Description 当做权值计算的因素,这个标签存在与否不影响网页权值,只是摘要的一个选择目标。

  如果想维护一个策略的生命周期的话,最好的方式是保守策略细节的秘密。但有一点可以确定,一个成熟的搜索引擎,不会轻易的通过一两个要素来判断一个网站的生死。有一点可以肯定,索引结果数肯定不会是一个网站在搜索引擎中的站点评级指标。这是很容易理解的。举个例子,site:www.126.com,就几百条而已。从投票权角度,它的权重会低于大部分索引了成千上万网页的站点?所以站长若要搞搞友情链接,更重要的是用自己的经验去做价值分析。

  作为站长,如果想深入的研究SEM,可以坦白的讲,数据分析是必须的。在网络上搜到的东鳞西爪的所谓SEO技巧,大多是别人嚼剩下的、没什么大用的、甚至有害的东西。站长要学会的首要事情之一,是对自己的网站日志做深入解剖,并能针对问题做各种实验和分析。

  山贼入伙,还需要“投名状”呢;入搜索引擎的伙,也得要点考察期吧。(对于新站内页收录慢的回答)如果你在中关村,搜“银行”,然后结果全是中关村周围的银行网点,按距离你的远近排序,这听上去不是一件很美妙的事情吗?呵呵。我也希望那一天尽早到来。

  判定页面重复的算法很复杂。可以肯定的是,仅meta相同,是不会被判为重复的。相同两个帖子被收录(URL可能不同),低权重的页面会不被建索引,或者被高权重页面类聚掉。更换服务器对网站排名有影响吗?如果有,影响有多大?百度说:原则上是不会的。除非…新换的服务器太糟糕,三天两头访问失败,或者服务器从国内换到国外,动辄被和谐,诸如此类的“硬件”问题。

  很多人喜欢往标题里塞很多关键词,以为那样就全面开花,但很可能适得其反。这个原理同在一个页面上设超链个数一样。分一杯羹的人越多,每个人所得的羹越少。一个普通用户,如果用你的关键词去搜,怎样的结果是合理的?如果你不喜欢的结果,恰是用户所喜欢的,那么除非版权问题之类,否则很难得到解决;如果你不喜欢的结果,也是普通用户所不喜欢的,那么这是一个会被百度关注的问题。

  造成搜索结果中显示标题与实际标题不一致的主要原因可能是tag title提取失败,系统只好从其他地方取了一些文本作为标题。这种提取失败的原因,有网页设计层面的(比如全是flash或者ajax),也有robots封禁层面的(某些重要网页虽然不抓取,但会保留url本身)。一个网页导出的链接数这个暂时没有具体的数值标准。一般情况下,链接数量,会影响到这些链接从该页面上所获得的权重;少就多分一些,多就少分一些。

  从用户体验角度,有些转载未必比原创差。比方一篇科技原创博文,被知名门户网站的科技频道转载。如果这种转载保留原创者姓名和出处链接,实际上对原创者是有利的,因为起到了更好的传播效果。只是国内的转载,很多是掐头去尾,使原创者比较受伤。

  对于搜索引擎来说,虽然超大的页面并不影响抓取和收录,但毕竟搜索引擎不会为页面上的每一个字节都建立索引(那会造成极大的资源浪费和效率等问题)。为了使页面的主体内容都可被检索到,我们建议应当将单个页面的大小控制在合理范围内,就目前而言,推荐不大于128KB。

  Robots Meta标签,我们支持nofollow和noarchive。

  几乎所有的大型网站都在用CDN,看看他们在搜索引擎中的表现就可以知道不会任何的负面影响了。但我们建议站长尽量选择技术成熟的CDN服务商,某些CDN服务商会导致网站在某些地区访问不稳定,可能会影响Baiduspider的抓取。正常的301永久重定向,旧url上积累的各种投票信息会全部转移到新url上。

  正常情况下,Baiduspider对一个网站的抓取频率决定于这个网站产出新内容的速度。一个小网站的抓取频率远高于新内容产出速度,通常会是下面这两种问题有中的一个:1)有其他程序冒充Baiduspider抓取。2)网站程序有漏洞,通常情况下,搜索引擎对https这类网页并不做内容解析,而只是将url进行索引。IP地址的url被收录,除了spider在机制上的不完善之外,通常站点设计上也有一些缺陷。一般情况下,这类问题是可以被规避的。

  javascript的解析,是很多搜索引擎正在做的事情;同理,对flash的解析。毕竟有那么多应用javascript或者flash的网站,并没有意识到,他们的做法给搜索引擎的收录和索引带来的麻烦。所以,如果期望不被搜索引擎收录的话,最直接的手段,还是写robots文件。

  过期域名也是域名,所以,适用于新域名的策略,也一样适用于过期域名。只是过期域名在历史上累积的与现有网站无关的权重,会被剥离掉,这也是很容易理解的。“伪原创”就是“非原创”。对非原创的策略,同样适用于伪原创。归根结底,这是一个技术实现程度问题,而不是策略思路问题。百度近期会发布基于百度的搜索引擎优化指南,里面有百度推荐的网站建设方法,以及一些会危害到权重的做法。大家可以期待哦。

  请大家一如既往的支持“百度说”,欢迎围观和转播,百度说地址是:http://t.qq.com/baidusays

赞(0) 打赏
未经允许不得转载:优友网 » 腾讯微博“百度说”,SEO与百度的故事
分享到: 更多 (0)

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

大前端WP主题 更专业 更方便

联系我们联系我们

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏