安装sitemap
- Windows环境下直接在博客根目录打开
Git Bash,运行命令:
1 | npm install hexo-generator-sitemap --save |
- 在站点配置文件
_config.yml中添加以下代码:
1 | Plugins: |
修改站点配置文件
_config.yml,添加url,其次就是Hexo文章默认的链接是:year/:month/:day/:title/这样的链接对SEO十分不友好,所以应改成title.html格式:1
2
3
4
5URL
# If your site is put in a subdirectory, set url as 'http://yoursite.com/child' and root as '/child/'
url: http://mahoo12138.github.io
permalink: :title.html
permalink_defaults:Hexo编译,提交站长平台
Hexo g && hexo d后会在/public目录下生成sitemap.xml和baidusitemap.xml,这就是站点地图。 之后就可以提交到各大站长平台了。
添加关键词
站点关键词
在博客根目录下找到_config.yml文件,在所示地方添加keywords: 关键字1,关键字2,关键字3…,采用英文逗号隔开,注意keywords与关键词之间的空格。
1 | title: Mahoo Blog |
文章关键词
打开主题路径内的head.ejs文件,不同主题所在路径和文件都可能不同,Next主题是 head.swig,我的主题是head.ejs,添加如下代码:
1 | # next theme head.swig |
添加上述代码后,主要是检测文章内是否有关键词,之后还要在\scaffolds\post.md中 添加:
1 | keywords: |
就可以在新写的文件里添加keyword,格式为[keyword1,keyword2,keyword3] 。
配置robots.txt
robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被漫游器获取的。因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据(Metadata,又称元资料) 。
简单来说,它就是网站和爬虫之间的协议,规定了哪些文件可以访问,哪些文件禁止访问。
在博客根目录下的source新建robots.txt写入:
1 | User-agent: * |
在编译后这个文件会出现在blog/public中 ,控制的就是该目录下的文件。