苏葳

作者详细信息

姓名: su wei
注册日期: 2015年3月20日

地区

生于70年代,幼年沉溺于中国古典小说,继而迷恋西方文学,矫枉过正,深受其害。唯一坚持下来的是脱离现实的人生态度。自我定位是三流程序员、不入流的摄影爱好者、猪队友级的游戏酱油郎、恶贯满盈的网络喷子、从未超过四级的英语学渣。不理经济文章,只顾玩物丧志,自诩唯物主义者。

最新发表

  1. 如何在XAMPP中安装多个WordPress站点? — 2017年2月6日
  2. XAMPP安装使用时的一些小问题 — 2015年12月17日
  3. 如何选购一台拍照效果好的手机 — 2015年12月15日
  4. Python中安装使用Selenium及PhantomJS — 2015年8月10日
  5. Visual Studio 2015里用Xamarin开发Android应用 — 2015年7月31日

最多评论文章

  1. 这几天使用MSN Spaces发现的几个问题 — 73 条评论
  2. C#程序的退出代码 — 9 条评论
  3. 把一个nmake工程移到VS2010集成环境中的一些问题 — 6 条评论
  4. Ubuntu 12.04 LTS下安装Apache+php+MySQL+phpMyAdmin — 5 条评论
  5. Wordsmith及自然语言生成 — 5 条评论

作者文章发布列表

如何用robots.txt提升WordPress的SEO效果

wordpress robots.txt seo你是否希望优化你的WordPress站点上的robots.txt文件?你还不确定robots.txt文件对SEO的重要性?我们会为你详细说明这些内容。在这篇文章里,我们会展示给你如何优化你的WordPress的robots.txt文件来达到SEO的效果,并帮你理解robots.txt的重要性。你站点上的robots.txt文件在你网站的整体SEO中扮演着重要的角色。简单的说,它允许你跟搜索引擎交流,让它们知道你站点上的哪些部份应该被编录。

继续阅读 »

WordPress中Robots.txt的使用问题

wordpress robots.txt seoRobots.txt文件是一种用来告诉搜索引擎哪些页面能够被搜索引擎蜘蛛看到,哪些不可见的手段。因此,Robots.txt文件跟meta name=“robots”标签的用法还是有些区别的。这个标签告诉搜索引擎它所位于的单独页面能否被包含在它们的编录清单里。虽然只是字面上的区别,却非常重要。由此可得出,CODEX上推荐的Robots.txt里面有一些错误,让我来解释一下这些问题。

继续阅读 »

在VMware的CentOS虚拟机里扩展磁盘空间

centos vmware 扩展 磁盘为了在程序发布到生产上之前做充分的测试,在本地上安装了一个跟VPS服务器环境相同的CentOS 6.6虚拟机。为了尽量模拟真实环境,内存大小,磁盘空间大小等都与生产环境保持一致。但随后发现,经过多次安装补丁包以及安装编译环境等之后,虚拟机上的磁盘空间逐渐消耗殆尽。生产上的却没有很大问题,原因可能是因为VPS服务器上安装的是CentOS的minial版本。

继续阅读 »

URL中用哈希符号(#)代替问号(?)

搜索引擎 seo url 参数你有过希望追踪用户访问的来源,但又担心在URL中使用查询参数会造成负面影响的时候吗?我了解这一点,它也曾让我寝食难安。在URL中使用跟踪参数是追踪来自其它网站链接的常用方法,但它也会带来一些棘手的问题:重复内容,并且一旦被当作付费链接的话则会降低这个外部链接的价值。我们先来讨论下第一个问题:重复内容。

继续阅读 »

如何消除网站中的重复内容

搜索引擎 seo 重复在你的网站中,如果存在指向同一块内容的多个URL,你应该从中选择一个作为规范URL,以消除重复内容的不利影响。一旦你确定了哪个URL是你某段内容的“规范(canonical)”的URL,你需要开始规范化操作了(是的我知道了,赶快大喊三声)。这种操作基本上来说仅仅是让搜索引擎知道并尽快的发现URL的规范版本。有四种主要方法解决这个问题,按个人喜好排列如下:1 不要创建重复内容。2 重定向重复内容到“规范”的URL。3 增加一个规范链接元素到重复页。4 增加一个从重复页指向规范页的HTML链接。

继续阅读 »

找出网站中的重复内容

搜索引擎 seo 重复如果你在网站中找到了许多重复的内容,比如文章,贴子等,作为重复内容对搜索排名优化的有害性研究的结论,可以得知多个URL指向同一内容确实是个麻烦,但是能够解决它。一个内容发布工作者通常能够很容易的说出来一篇文章的正确URL应该是什么样子。但有趣的事情是,有些时候,当你问同一个公司的三个人这个问题时,他们会给出三个不同的答案。这是一个应该解决的问题,毕竟最终只能有一个URL。某个内容的“正确”URL将被搜索引擎引用为“规范”的URL。

继续阅读 »

网站产生重复内容的一些原因

搜索引擎 seo 重复谷歌这样的搜索引擎存在着一个问题,他们称之为“重复内容”。你的同一块页面内容无规则的存在于站点的多个页面地址上,因此他们不知道该显示哪个。尤其是当其它人开始链接到同一内容的所有这些不同的版本时,问题就更严重了。这篇文章的意图在于帮助你理解重复内容的各种产生原因,并且找到每个问题的解决办法。你可以想象自已站在一个十字路口,指向同一最终目的地的路标却指向两个不同的方向,该走哪条路?更糟糕的情况是目的地也不相同,但这并不比前一种困难多少。

继续阅读 »

如何优化WordPress的Robots.txt?

wordpress robots.txt seo当我们谈及WordPress的SEO时,WP的Robots.txt在搜索引擎评级中扮演着重要角色。它能阻止搜索引擎机器人索引或爬取我们博客中的重要内容。话虽如此,有时候,一个Robots.txt中的错误配置有可能让你从搜索引擎结果页面里完全消失。因此,在修改Robots.txt时,做好优化并且不要阻止它访问你博客的关键部份是非常重要的。在Robtos.txt中有许多关于该不该索引某些内容的误区,我们将在下面文章中加以探讨。

继续阅读 »

Nginx的Proxy Cache的命中机制

nginx gzip ie chromeNginx是著名的HTTP服务器,也常用作反向代理服务器,所谓反向代理,意指代理的不是客户端,而是服务端。收到来自客户端的请求后,依据一定规则分发到后端服务器。对于客户而言,只知道访问了Nginx所在的服务,而不用关心Nginx将请求真实转发到了哪里,这就是反向代理。这种模式下,一个代理缓存就非常有用。nginx_proxy_cache模块就用于完成这种工作,配置得当的话,代理缓存能大大减轻Web服务器负担,提高网站响应速度。

继续阅读 »

WordPress的URL设置在Nginx上的404冲突

nginx wordpress 404404是什么?除了是方校长在武汉大学讲课时的教室门牌号码,还是网站返回的一个HTTP状态码。这个状态码告诉用户,服务器不能正确响应用户的请求,找不到该页面。Nginx在安装时包含了名为404.html和50x.html的两个网页,作为默认设置下对404错误及500、502、503、504等错误的返回内容。在Nginx配置文件中error_page指令指定这两个页面响应相应的错误码。站长可以自行设计这两个页面用来为用户提供更友好的错误信息。

继续阅读 »

第 5 页,共 43 页« 最新...34567...102030...最旧 »