新网站如何做好SEO优化 尽快被收录

网站的SEO优化是一门学问,通过系统的优化,网站可以快速被百度等搜索引擎收录。

我也并不是这方面的专家,只是搜集整理了一些主要的优化方法和注意事项,供大家参考。

对于新网站,百度等搜索引擎会有一定的扶持,所以在网站上线之前一定要做好规划,为了网站往什么领域发展、所涉猎的内容等都要提前想好。

1、新网站一定要提前想好TDK,这将对SEO起到非常重要的左右,因为搜索引擎首先抓取的就是这个。

TDK指的是什么呢?

  • T:title 网站的标题,包含网站名称和网站的定位关键词,不宜太长。

  • D:description 网站简介,最好保持在50字以内。

  • K:keywords 网站关键词,最好保持在2-30字以内。

TDK在页面头部的meta标签,还有一些其他的,比如:author 网站的作者等等。

代码如下:

<head>
    <title>w3h5 - 前端资源网</title>
    <meta name="description" content="w3h5资源网是一个WEB前端资源分享网站,提供技术经验和一些常用的网站工具等。">
    <meta name="keywords" content="WEB前端,前端资源网,w3h5">
</head>

2、习惯使用语义化标签,比如h1、h2.....标题标签等。

url采用绝对网址,或者使用网站伪静态,因为搜索引擎是不会抓去动态内容的。

优化HTML、js、css、php等的代码格式。

3、使用网站地图

网站地图一般是制作XML或者html文件,放在网站的根目录,如:Sitemap.XML和Sitemap.html

4、设置alt属性的值,虽然效果不是很大,但是要合理利用资源。

5、除去导出链接,设置友情链接

导出链接是网站中跳到其他网站的链接,点击直接跳出到别的网站。

如果是新站,最好设置几个友情链接,如果没有可以先设置一些站内的链接,但最好是站外的,权重越高越好。

6、网站备案,虽然不备案也可以访问,但是搜索引擎一定会有限收录已备案的网站的。

7、选择稳定安全的服务器,防止网站间歇性无法访问,对SEO是有很大影响的。

8、设置404页面,如果访问的资源不存在,自动跳转到404页面。

9、机器人协议

生成robots.txt放在网站根目录。robots文件包含User-agent: Disallow: 和 Sitemap:

User-agent:用于描述搜索引擎蜘蛛的名字,在" Robots.txt "文件中,如果有多条User-agent记录说明有多个搜索引擎蜘蛛会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何搜索引擎蜘蛛均有效,在" Robots.txt "文件中,"User-agent:*"这样的记录只能有一条。

Disallow:不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被Robot访问到。

例如:

a:"Disallow:/help"是指/help.html 和/help/目录下的页面都不允许搜索引擎蜘蛛抓取。

b:"Disallow:/help/"是指允许搜索引擎蜘蛛抓取/help.html,而不能抓取/help/目录下的页面。

c:Disallow记录为空说明该网站的所有页面都允许被搜索引擎抓取,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎蜘蛛,该网站都是开放的可以被抓取的。

#:Robots.txt 协议中的注释符。

Allow:希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL 是允许robot访问的。例如"Allow:/hibaidu"允许robot访问/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。

Sitemap:地图文件所在的位置。

综合例子 :

a:通过"/robots.txt"禁止所有搜索引擎蜘蛛抓取"/bin/cgi/"目录,以及 "/tmp/"目录和 /foo.html 文件,设置方法如下:

User-agent: *
Disallow: /bin/cgi/
Disallow: /tmp/
Disallow: /foo.html

b:通过"/robots.txt"只允许某个搜索引擎抓取,而禁止其他的搜索引擎抓取。如:只允许名为"slurp"的搜索引擎蜘蛛抓取,而拒绝其他的搜索引擎蜘蛛抓取 "/cgi/" 目录下的内容,设置方法如下:

User-agent: *
Disallow: /cgi/
User-agent: slurp
Disallow:

c:禁止任何搜索引擎抓取我的网站,设置方法如下:

User-agent: *
Disallow: /

d:只禁止某个搜索引擎抓取我的网站如:只禁止名为“slurp”的搜索引擎蜘蛛抓取,设置方法如下:

User-agent: slurp
Disallow: /

可以在最后一行加上Sitemap:

Sitemap:https://w3h5.com/sitemap.xml


未经允许不得转载:Web前端开发资源网 - w3h5 » 新网站如何做好SEO优化 尽快被收录

推荐阅读:

阿里巴巴矢量图标库 iconfont 的使用方法

WDLinux故障 Linux系统网站数据备份笔记

WebStorm绑定Chrome浏览器实现实时自动刷新

使用 swiper 轮播插件遇到的问题及解决方法

给元素添加伪类 :before 不显示的解决方法

赞 (0)
分享到: +

评论 沙发

Avatar

换个身份

  • 昵称 (必填)
  • 邮箱 (选填)