标签存档: 搜索引擎

十年时间归纳出的十个WordPress问题的答案(续)

wordpress seo 搜索引擎WordPress如此流行,以至于所有网站站长都或多或少的接触过它。事实上它也是在因特网上最流行的建站程序之一,并不仅限于博客。在前一篇文章的5个问题中,我们已经了解到WordPress虽然已经包含了许多SEO特点,但如同其它CMS程序一样,仍然称不上是完美,这一方面也是因为SEO的要求在随着搜索引擎技术发展和用户的习惯在不停变化。下面我们继续讨论我在十年SEO经历中经常被问到的另外5个WordPress的SEO问题。

继续阅读 »

十年时间归纳出的十个WordPress问题的答案

wordpress seo 搜索引擎在我做过SEO的各种各样的内容管理系统和Web发布平台里面,WordPress是最流行的一个。许多博客,公司网站,网上商店建立在WordPress上。网站设计者们着迷于它的多用途和适应能力。用户则喜欢它的简单和效率。它是个不需要哪怕一点编码,网站设计或者其它技术细节知识的简单的博客系统。全世界前一千万个网站里面,包括TIME,Mashable,Marketing Land和Search Engine Land等等,都是建立在WordPress上。

继续阅读 »

如何优化你的博客文章

wordpress seo 搜索引擎让你的博客获得搜索引擎的高评级需要大量的工作。虽然我们都知道SEO的好处,但有时并没有足够的时间让我们在关注SEO的同时还要开发一款高质量的产品或者经营你的生意。你能怎么做呢?你可以雇佣一家SEO顾问公司象Outspoken Media,但是如果你缺乏预算,这篇文章对你再合适不过了。每个人都知道创造出新鲜的,迷人的内容能够吸引忠诚的关注者并吸引来外链。然而,如果你想不花钱的改善的你的SEO效果,你可以优化你现有的文章使它们获得更高的搜索评级。

继续阅读 »

WordPress中需要避免的5个荒唐错误

wordpress seo 搜索引擎一直以来有个关于WordPress的严重误解,说WordPress已经针对SEO做了完美的优化。我们都是WordPress的粉丝,但是对于SEO来说,WP的核心软件还是需要进行一些小的调整。实际上,如果你对优化你的WordPress的想法只限于你最新发表的文章的点击率的话,你可能就错过了大多数潜在的机会。另一方面,尽管你觉得自己已经对站点做了大量的优化工作,仍然有可能犯下以下错误之一(我知道是因为我过去也犯过)。

继续阅读 »

在WordPress中使用分类和标签的正确方式

wordpress seo 标签 分类很多人可能不知道,分类和标签有可能帮你的站点增加大量的流量,而这种机会往往被许多博客站长给浪费掉。当我们开始写博客时,建立和维护一套计划周密的分类和标签系统有许多好处。第一,构建良好的导航元素能大大提高用户体验。第二,分类和标签能够提供一个通过搜索引擎为你的站点带来更多流量的可能性。

继续阅读 »

如何用robots.txt提升WordPress的SEO效果

wordpress robots.txt seo你是否希望优化你的WordPress站点上的robots.txt文件?你还不确定robots.txt文件对SEO的重要性?我们会为你详细说明这些内容。在这篇文章里,我们会展示给你如何优化你的WordPress的robots.txt文件来达到SEO的效果,并帮你理解robots.txt的重要性。你站点上的robots.txt文件在你网站的整体SEO中扮演着重要的角色。简单的说,它允许你跟搜索引擎交流,让它们知道你站点上的哪些部份应该被编录。

继续阅读 »

WordPress中Robots.txt的使用问题

wordpress robots.txt seoRobots.txt文件是一种用来告诉搜索引擎哪些页面能够被搜索引擎蜘蛛看到,哪些不可见的手段。因此,Robots.txt文件跟meta name=“robots”标签的用法还是有些区别的。这个标签告诉搜索引擎它所位于的单独页面能否被包含在它们的编录清单里。虽然只是字面上的区别,却非常重要。由此可得出,CODEX上推荐的Robots.txt里面有一些错误,让我来解释一下这些问题。

继续阅读 »

URL中用哈希符号(#)代替问号(?)

搜索引擎 seo url 参数你有过希望追踪用户访问的来源,但又担心在URL中使用查询参数会造成负面影响的时候吗?我了解这一点,它也曾让我寝食难安。在URL中使用跟踪参数是追踪来自其它网站链接的常用方法,但它也会带来一些棘手的问题:重复内容,并且一旦被当作付费链接的话则会降低这个外部链接的价值。我们先来讨论下第一个问题:重复内容。

继续阅读 »

如何消除网站中的重复内容

搜索引擎 seo 重复在你的网站中,如果存在指向同一块内容的多个URL,你应该从中选择一个作为规范URL,以消除重复内容的不利影响。一旦你确定了哪个URL是你某段内容的“规范(canonical)”的URL,你需要开始规范化操作了(是的我知道了,赶快大喊三声)。这种操作基本上来说仅仅是让搜索引擎知道并尽快的发现URL的规范版本。有四种主要方法解决这个问题,按个人喜好排列如下:1 不要创建重复内容。2 重定向重复内容到“规范”的URL。3 增加一个规范链接元素到重复页。4 增加一个从重复页指向规范页的HTML链接。

继续阅读 »

找出网站中的重复内容

搜索引擎 seo 重复如果你在网站中找到了许多重复的内容,比如文章,贴子等,作为重复内容对搜索排名优化的有害性研究的结论,可以得知多个URL指向同一内容确实是个麻烦,但是能够解决它。一个内容发布工作者通常能够很容易的说出来一篇文章的正确URL应该是什么样子。但有趣的事情是,有些时候,当你问同一个公司的三个人这个问题时,他们会给出三个不同的答案。这是一个应该解决的问题,毕竟最终只能有一个URL。某个内容的“正确”URL将被搜索引擎引用为“规范”的URL。

继续阅读 »

第 1 页,共 2 页12