安装sitemap
- Windows环境下直接在博客根目录打开
Git Bash
,运行命令:
1 | npm install hexo-generator-sitemap --save |
- 在站点配置文件
_config.yml
中添加以下代码:
1 | Plugins: |
修改站点配置文件
_config.yml
,添加url
,其次就是Hexo文章默认的链接是:year/:month/:day/:title/
这样的链接对SEO十分不友好,所以应改成title.html
格式:1
2
3
4
5URL
# If your site is put in a subdirectory, set url as 'http://yoursite.com/child' and root as '/child/'
url: http://mahoo12138.github.io
permalink: :title.html
permalink_defaults:Hexo编译,提交站长平台
Hexo g && hexo d
后会在/public目录下生成sitemap.xml
和baidusitemap.xml
,这就是站点地图。 之后就可以提交到各大站长平台了。
添加关键词
站点关键词
在博客根目录下找到_config.yml
文件,在所示地方添加keywords: 关键字1,关键字2,关键字3…
,采用英文逗号
隔开,注意keywords
与关键词
之间的空格
。
1 | title: Mahoo Blog |
文章关键词
打开主题路径内的head.ejs
文件,不同主题所在路径和文件都可能不同,Next主题是 head.swig
,我的主题是head.ejs
,添加如下代码:
1 | # next theme head.swig |
添加上述代码后,主要是检测文章内是否有关键词,之后还要在\scaffolds\post.md
中 添加:
1 | keywords: |
就可以在新写的文件里添加keyword,格式为[keyword1,keyword2,keyword3] 。
配置robots.txt
robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被漫游器获取的。因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据(Metadata,又称元资料) 。
简单来说,它就是网站和爬虫之间的协议,规定了哪些文件可以访问,哪些文件禁止访问。
在博客根目录下的source
新建robots.txt
写入:
1 | User-agent: * |
在编译后这个文件会出现在blog/public
中 ,控制的就是该目录下的文件。