typecho安装完后,常见的一项网站优化就是开启伪静态。记录下在虚拟主机中安装完typecho后,不同环境下伪静态规则。Windows IIS环境:在网站目录下新建web.config,写入规则如下:<?xml version="1.0" encoding="UTF-8"?> <configuration> <system.webServer> <rewrite> <rules> <rule name="Main Rule" stopProcessing="true"> <match url="^(.*)$" /> <conditions logicalGrouping="MatchAll"> <add i
相聚了一个多月,兄弟们终于开始陆续的出去了,我应该也快走了吧,不知道下次聚齐是什么时候?今年年底还是明年年初?这两次的排骨火锅吃的真心不错,公瑾的手艺渐长了,o(∩_∩)o 哈哈~~酒足饭饱后,习惯性的和同事看看股市,然后打开电脑等更小说,登陆起点,今晚又是没更,正精彩的时候又断了,不过好的小说值得等待~~闲着也是闲着,于是决定再整整博客。wordpress用了几个月,只做过一次优化《博客优化小记》,近期使用过程中又发现了一些问题,遂解决之。虽然我一直对seo不怎么看重,但长久写博客的话,这些还是要关注下的1.卸载插件Hacklog Remote Attachment,改用GAE图床;2.修正留言楼层序号错误问题,感谢韩麦斯的提醒;3.wordpress开启伪静态,修改固定链接,并作301跳转;4.使用tags作为文章关键字站内链接(传说中的内链?不是很懂!);5.禁止冒充管理员评论;6.删除wp-comments-post.php,世界终于清静了7.清理数据库,清空wp_commentmeta 表
每当我们发表一片文章,各大搜索引擎都会慢慢的开始收录,但收录的速度却各不相同。一般来说google收录是很快的,有的时候甚至秒收;而中文网站赖以生存的百度收录却相对较慢。有没有办法加快收录速度呢?这样在一定程度上可以增大博客的访问量。其实利用一些插件就可以很好的解决这个问题,比如wordpress有一个非常好的插件Google XML Sitemaps,安装会就会更新文章就会自动ping给Google、Bing等搜索引擎,只是比较可惜是没有百度。虽然插件不能自动ping百度,但是我们可以自己动手,丰衣足食,告诉百度我们更新文章啦,快来看看。。方法1:访问http://ping.baidu.com/ping.html,手工输入自己的网址或者feed地址。方法2:登录wordpress后台,打开设置-撰写-更新服务,输入百度的ping服务地址http://ping.baidu.com/ping/RPC2当然,这里我们还能填入更多的URL,向其发出更新通告,比如我的:http://rpc.pingomatic.com/http://ping.baidu.com/ping/RPC2http:/
原打算用点点网备案的,但邮件发出去两周了,迟迟等不来回信。某天无名在我博客上留言说:“真想备案快的话用西部数码的收费空间,备案是超快的,客服帮忙免费备案,前提是要买一年的空间”,我心动了。本就打算好好做博客的,稳定高速的空间和网站备案都是必不可少的。于是通过企业QQ联系西部数码的客服,详细了解了备案情况:一次可以备案多个域名,超过5个需要域名证书,整个备案过程需要20天左右;网站备案后可以继续添加域名,但新添加域名需要审核,大概在20天左右,新域名审核期间不影响网站正常访问;陕西地区备案需要到指定地点拍照核验。人一激动就容易冲动,关掉QQ聊天窗口,订购→付款,http://voncing.gotoip55.com/诞生了。立刻登入后台,按照要求修改域名DNS,然后进入备案系统,填写资料,拿到核验码~~早上起了个大早(周末九点多算早了吧),火速赶往拍照地点,到的时候已经快11点了,路痴伤不起啊,分不清东南西北啊。。。拍照、填表、扫描证件,10分钟搞定,服务态度也很不错。交了45元(扫描上传10、拍照10、邮费25),给我了张单子,让我根据上面的要求尽快修改备案信息,一旦资料寄到就不能修改
WordPress的SEO默认做的已经非常强大了,当然也还有很大的优化空间。其中Robots.txt优化是Wordpress优化最重要的一个环节。搜索引擎对网页的抓取首先就是从读取的Robots.txt开始的。在Wordpress中,Robots.txt的作用主要就是屏蔽一些重复的内容放置被重复抓取。目前各种的Robots.txt的写法很多,但几乎功能都是一样的。robots.txt是一个存放在网站根目录下的文本文件,这个文件用于指定spider在您网站上的抓取范围,不但可以有效的节省搜索引擎对服务器带宽的占用,还可以提高网站在搜索引擎中的排名。使用WordPress搭建的博客,利用robots.txt文件限制搜索引擎抓取部分目录及文件,归纳大致有以下几种方法。最简单的开放写法:User-agent: *Disallow:使用说明:允许所有蜘蛛访问,允许访问所有内容。Wordpress只要模板中链接设计合理,没有需要限制的特殊内容,推荐使用这种写法。最简单的严格写法:User-agent: *Disallow: /wp-*Allow: /usr/uploads/Disallo
admin
一个玩转信用卡的招商人