网站优化

首页<<华阳娱乐>>首页

作者:ASPKU 源码库 发布时间:2020-08-15
不论你的网站是用Shopify建立的,还是Wordpress,还是Magento,要注意你的网站都要做优化
 
ued3在讲到针对一个网站的优化,特别是站内优化的时候,其实主要包含
2大方面:
 
- 一是针对页面的SEO (on-page )
- 另外一个是网站结构优化,也叫做技术性SEO 
 
由于搜索结果的竞争越来越激烈,对SEO在技术上的优化也提出了更高的要求。
 
一个表现良好的网站,必须要是可抓取、快速、安全的网站。
 
技术性SEO包含的内容很多,涵盖网站的结构设计、URL、网络地图等内容,而且是一个技术性很强的方面。
 
今天我主要说一说网站技术SEO的六个基本方面,做好这六大方面,网站的性能会更加优化和健康。
 
很多人可能看到这一章节会觉得很枯燥,但是其实是很重要的。
 
为什么呢?
 
因为一个网站,如果你花了很多时间在获取流量上,比如广告,比如红人,但是基本的文章的audit(审视)都没有过关的话,那么无形之中会大大增加你网站的营销费用。
 
试想一下一个2秒打开速度的网站,和一个十秒才打开的网站,那效果能一样吗?
 
所以从一个网站的优化角度来讲,特别是技术性优化的角度来探讨,我们要从以下几点进行优化:
 
01
 
确保网站可抓取
 
对于搜索引擎优化, 做好优质内容是必须的。但是只有优质内容还不够,如果搜索引擎抓取不到这个页面,那你辛辛苦苦编写的内容不是白费了吗?
 
确保网站可抓取,首先要检查robots.txt文件,这个文件是任何网络爬行软件到达站点时的第一个调用点。
 
robots.txt文件会明确应该被抓取的和不应该被抓取的部分,表现为允许(allow)、禁止(disallow)某些用户代理的行为。
 
通过将/robots.txt添加到根域末尾,可以公开使用robots.txt文件。ued3看一下Hallam网站的示例:
 
可以看到,Hallam网站不允许以/ wp-admin(网站后端)开头的URL被抓取。通过指明哪些地方禁止这些URL,可以节省带宽、服务器资源和爬网预算。
 
与此同时,搜索引擎爬虫抓取网站的重要部分时,不应该受到禁止。
 
因为robots.txt是爬虫在抓取网站时看到的第一个文件,所以最好是将robots.txt指向站点地图。可以在旧版的Google Search Console中编辑和测试robots.txt文件。
 
在robots.txt的测试工具中,下面的网址栏输入任何网址,就可以检查这个网址能否被抓取,robots.txt文件中有没有错误和警告。
 
因为旧版的Google Search Console功能要比新版本的功能多一些,在技术SEO方面旧版本会更好用一些。
 
比方说,旧版本可以查看站长工具上的抓取统计信息区域(Craw Stats),对于了解网站的抓取方式会更加的方便。