11个SEO优化入门学习基础知识总汇
时间:2022-09-26 10:03:44 浏览:1285次
很多SEO新手在刚接触SEO的时候不知道从何学起,或者seo学习后;交流发现自己掌握的不够多!今天从互联网整理收集了11个SEO优化入门学习的基础知识点,希望给新人朋友以帮助
一、网页三要素的设置
网页三要素:Title、Keywords、Description,这里最最关键的就是标题的设置,一定要慎之又慎,因为随意修改是会带来降权风险的,也是新手最容易犯错的地方;
二、img的四要素
img的四要素包括Src、Alt、Width、Height,这是网页优化中必须规范的图片使用要素,当然背景图片的话除外;
三、关键词密度的适当调整
关键词出现在一个页面的密度,是需要适当布局的,不要刻意去关键词堆积密度,一般有关键词出现在页面即可,堆积是搜索引擎相当反感和打击的一种作弊手法;
四、404页面的设置
404页面是在网站中出现死链的时候,返回状态码为404时展现的页面,是为了提升用户体验而设置的,并不是一个摆设。
五、向搜索引擎提交网站Url
让搜索引擎抓取、收录网站页面的最直接方式,就是直接向各大搜索引擎入口提交网址Url
六、死链接的检查和处理
死链的产生是由于url路径的改变,导致链接无法访问。这种死链的产生,多是由于其他页面的删除,而页面链接的访问入口还存在,也就是说一个A页面删除了,但是在B页面上还存在A页面的链接,这样一访问肯定就是死链,跳转到404,所以务必检查网站的链接,清除站内的死链接入口;
七、页面静态与伪静态的处理
无论是网站程序是PHP的还是ASP,通常为了路径的统一以及蜘蛛抓取方便,甚至是为了提高访问速度,将网站的链接改成了伪静态,或者直接生成静态页面,这个处理最好是在网站上线的时候就统一起来,URL规则定义好;
八、Sitemap网站地图的生成
Sitemap网站地图的作用,往往分为三种,一种是为了有利于搜索引擎抓取;一种为了权重的传递,实现平衡层级的网站投票结构;还有一种作用是为了给用户提供直观的入口,如果你的网站分类、层级太多,使用sitemap可以很方便的展现。Sitemap的格式分大概为XMl和html两种,xml是面向蜘蛛的,html是面向用户的。
九、Robots的应用
Robots的用处很大,既可以辅助网站收录,也可以拒绝垃圾蜘蛛的抓取。Robots是如何辅助收录的呢?这里指的是定义Robots规则,可以规定蜘蛛可以抓取什么结构的链接,不可以抓取什么结构的链接,例如前面的伪静态处理,由于双重路径,Robots上定义禁止收录动态连接,那么就只能抓取静态路径了;很多垃圾蜘蛛会模仿百度的抓取,毫无节制的在网站上“爬行”,浪费网站的带宽,通过Robots可以屏蔽它的抓取。
十、网站跟踪代码
这里的跟踪代码通常指的是网站统计代码,是指百度统计一类的统计代码,因为需要跟踪网站的流量预计访问细节相关的数据,需要这么一个统计工具来完成详细跟踪,当然你使用cnzz、51la等等其他工具也可以。
十一、301的处理
301的处理主要对象是带www的域名的不带www的域名,需要将两个域名作归一处理,避免产生双重路径,也避免分散权重。
最新案例