自己动手编写CSDN博客备份工具-blogspider
来源:https://blog.csdn.net/gzshun
我之前一直在看lucene,nutch,发现有这么一个现成的小应用,特转来学习下!mark一下。
网络爬虫(又被称为网页蜘蛛,网络机器人),是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁,自动索引,模拟程序或者蠕虫。
网络爬虫最重要的任务,就是从互联网搜索出需要的信息,将网页抓取下来并分析,很多搜索引擎,比如百度,谷歌,后台都有一只很强悍的网络爬虫,用来访问互联网上的网页,图片,视频等内容,并建立索引数据库,使用户能在百度搜索引擎中搜索到您网站的网页、图片、视频等内容。
我们常见的几个大型搜索引擎公司的爬虫名称:
1.谷歌(Google) -> Googlebot
2.百度(Baidu)爬虫名称:Baiduspider
3.雅虎(Yahoo) -> Yahoo! Slurp
4.有道(Yodao) -> YodaoBot
5.搜狗(sogou) -> Sogou spider
6.MSN -> msmbot
7.腾讯搜搜 -> Sosospider
最近我突然想自己动手写一只小型的博客爬虫,将自己在CSDN博客网站写的文章给抓取下来,想做个博客备份工具。当了解到网络爬虫的用途后,就来动手实现一个应用,用来备份自己在CSDN的博客,这样即使没有网络,或者文章丢失了,我手头都有一个备份。记得上次在微博看过CSDN创始人蒋涛先生说的一句话,他想做一个CSDN博客生成PDF文档的工具,其实那也相当于对自己博客的备份,这样就能很方便的浏览自己的写的文章。
我写的这个"blogspider"程序,将会把自己博客信息提取出来,并将所有的文章下载到本地。这里只是简单的下载网页而已,里面的图片我没有下载,那得涉及到太多的东西。如果电脑有网络,将会很容易的看到博客里面的图片,如果没有网络,图片将无法显示。
blogspider程序由C语言编写的,基于Linux平台,我编写该程序的环境如下:
- gzshun@ubuntu:~$ uname -a
- Linux ubuntu 2.6.32-24-generic-pae #39-Ubuntu SMP Wed Jul 28 07:39:26 UTC 2010 i686 GNU/Linux
- gzshun@ubuntu:~$ gcc -v
- Using built-in specs.
- Target: i486-linux-gnu
- Configured with: ../src/configure -v --with-pkgversion='Ubuntu 4.4.3-4ubuntu5' --with-bugurl=file:///usr/share/doc/gcc-4.4/README.Bugs --enable-languages=c,c++,fortran,objc,obj-c++ --prefix=/usr --enable-shared --enable-multiarch --enable-linker-build-id --with-system-zlib --libexecdir=/usr/lib --without-included-gettext --enable-threads=posix --with-gxx-include-dir=/usr/include/c++/4.4 --program-suffix=-4.4 --enable-nls --enable-clocale=gnu --enable-libstdcxx-debug --enable-plugin --enable-objc-gc --enable-targets=all --disable-werror --with-arch-32=i486 --with-tune=generic --enable-checking=release --build=i486-linux-gnu --host=i486-linux-gnu --target=i486-linux-gnu
- Thread model: posix
- gcc version 4.4.3 (Ubuntu 4.4.3-4ubuntu5)
本人在putty终端测试程序,可以正确的显示中文,要设置为UTF-8,或者GB2312,如果显示乱码,切换一下字符集试试。
1.获取博客的基本信息:
博客标题
博客访问量
博客积分
博客排名
博客原创文章数量
博客转载文章数量
博客译文文章数量
博客评论数量
2.下载博客到本地:
博客主题
博客发表日期
博客阅读次数
博客评论次数
二.blogspider涉及到的知识点:
1.文件I/O
2.网络编程socket
3.数据结构-链表
4.内存分配
三.blogspider程序执行流程:
以我的博客为例:
1.将"https://blog.csdn.net/gzshun"主页下载到本地
2.分析该主页,获取到博客的URL
3.将博客的URL添加到爬虫链表
4.遍历爬虫链表,将博客下载到本地
5.将下载日志保存在gzshun.log
四.blogspider程序的重要部分:
1.爬虫链表的结构体
- typedef struct tag_blog_info {
- char *b_url; /*网址*/
- char *b_host; /*网站服务器主机名*/
- char *b_page_file; /*页面文件名称*/
- char *b_local_file; /*本地保存的文件名称*/
- char *b_title; /*博客主题*/
- char *b_date; /*博客发表日期*/
- int b_port; /*网址端口号*/
- int b_sockfd; /*网络套接字*/
- int b_reads; /*阅读次数*/
- int b_comments; /*评论次数*/
- int b_download; /*下载状态*/
- int b_lock; /*处理锁*/
- int b_seq_num; /*序号*/
- }blog_info;
- typedef struct tag_blog_spider {
- blog_info *blog;
- struct tag_blog_spider *next;
- }blog_spider;
2.博客基本信息结构体
- typedef struct tag_blog_rank {
- int b_page_total; /*博客总页数*/
- char *b_title; /*博客标题*/
- char *b_page_view; /*博客访问量*/
- char *b_integral; /*博客积分*/
- char *b_ranking; /*博客排名*/
- char *b_original; /*博客原创文章数量*/
- char *b_reship; /*博客转载文章数量*/
- char *b_translation; /*博客译文文章数量*/
- char *b_comments; /*博客评论数量*/
- }blog_rank;
3.定义的函数
- static char *strrstr(const char *s1, const char *s2);
- static char *strfchr(char *s);
- static int init_spider(blog_spider **spider);
- static int init_rank(blog_rank **rank);
- static void insert_spider(blog_spider *spider_head, blog_spider *spider);
- static int spider_size(blog_spider *spider_head);
- static void print_spider(blog_spider *spider_head);
- static void print_rank(blog_rank *rank);
- static void free_spider(blog_spider *spider_head);
- static void free_rank(blog_rank *rank);
- static int get_blog_info(blog_spider *spider_head, blog_rank *rank);
- static int analyse_index(blog_spider *spider_head);
- static int download_index(blog_spider *spider_head);
- static int download_blog(blog_spider *spider);
- static int get_web_host(const char *hostname);
- static int connect_web(const blog_spider *spider);
- static int send_request(const blog_spider * spider);
- static int recv_response(const blog_spider * spider);
4.strrstr是自己实现的,C库没有提供
1.strrstr函数:从一个字符串中查找指定字符串,返回最后一次出现的地址
程序如下:
- /**************************************************************
- strrstr : 查找指定字符串, 返回最后一次出现的地址, 自己实现
- ***************************************************************/
- static char *strrstr(const char *s1, const char *s2)
- {
- int len2;
- char *ps1;
- if (!(len2 = strlen(s2))) {
- return (char *)s1;
- }
- ps1 = (char *)s1 + strlen(s1) - 1;
- ps1 = ps1 - len2 + 1;
- while (ps1 >= s1) {
- if ((*ps1 == *s2) && (strncmp(ps1, s2, len2) == 0)) {
- return (char *)ps1;
- }
- ps1--;
- }
- return NULL;
- }
5.初始化爬虫链表
- /*********************************************************
- 初始化博客爬虫的链表节点, 申请空间并赋空值
- *********************************************************/
- static int init_spider(blog_spider * * spider)
- {
- *spider = (blog_spider *)malloc(sizeof(blog_spider));
- if (NULL == *spider) {
- #ifdef SPIDER_DEBUG
- fprintf(stderr, "malloc: %s\n", strerror(errno));
- #endif
- return -1;
- }
- (*spider)->blog = (blog_info *)malloc(sizeof(blog_info));
- if (NULL == (*spider)->blog) {
- #ifdef SPIDER_DEBUG
- fprintf(stderr, "malloc: %s\n", strerror(errno));
- #endif
- free(*spider);
- return -1;
- }
- (*spider)->blog->b_url = NULL;
- (*spider)->blog->b_host = strdup(CSDN_BLOG_HOST);
- (*spider)->blog->b_page_file = NULL;
- (*spider)->blog->b_local_file = NULL;
- (*spider)->blog->b_title = NULL;
- (*spider)->blog->b_date = NULL;
- (*spider)->blog->b_port = CSDN_BLOG_PORT;
- (*spider)->blog->b_sockfd = 0;
- (*spider)->blog->b_reads = 0;
- (*spider)->blog->b_comments = 0;
- (*spider)->blog->b_download = BLOG_UNDOWNLOAD;
- (*spider)->blog->b_lock = BLOG_UNLOCK;
- (*spider)->blog->b_seq_num = 0;
- (*spider)->next = NULL;
- return 0;
- }
6.初始化博客基本信息结构体
- /*********************************************************
- 初始化博客基本信息结构体,包含以下几个变量:
- 1.博客页面总页数
- 2.博客标题
- 3.博客访问量
- 4.博客积分
- 5.博客排名
- 6.博客原创文章数量
- 7.博客转载文章数量
- 8.博客译文文章数量
- 9.博客评论数量
- *********************************************************/
- static int init_rank(blog_rank **rank)
- {
- *rank = (blog_rank *)malloc(sizeof(blog_rank));
- if (NULL == *rank) {
- #ifdef SPIDER_DEBUG
- fprintf(stderr, "malloc: %s\n", strerror(errno));
- #endif
- return -1;
- }
- (*rank)->b_page_total = 0;
- (*rank)->b_title = NULL;
- (*rank)->b_page_view = NULL;
- (*rank)->b_integral = NULL;
- (*rank)->b_ranking = NULL;
- (*rank)->b_original = NULL;
- (*rank)->b_reship = NULL;
- (*rank)->b_translation = NULL;
- (*rank)->b_comments = NULL;
- return 0;
- }
五.blogspider遇到的问题:
1.博客标题如果有'/','?',或者其他不规则的符号,文件将会创建失败。
解决方案:将不规则的符号赋空,并在后面连接"xxx"字符串,表示省略;
2.在接受网站服务器响应的时候,要将select函数的时间设置长点,有时候因为网络差的问题,将会超时导致退出程序。在blogspider里面,将timeout设置30s。
3.本程序在考虑加入多线程遍历爬虫链表,经过尝试,连接网站服务器会出现竞争问题,将导致连接延时,影响程序效率,暂时不考虑。
六.blogspider运行截图:
使用blogspider:
这里以下载我的博客为例,我CSDN的ID是:gzshun, 网址是:https://blog.csdn.net/gzshun
title : 博客标题
url : 博客网址
date : 博客发表日期
reads : 博客阅读次数
comments : 博客评论次数
download : 博客下载状态
以下这张图片是在windows查看的,通过samba连接到ubuntu服务器。我博客上面的所有文章已经成功地下载到本地。
打开下载在本地的html文件,此时有网络。

若需要blogspider的源程序,请留下您的E-mail(注意要写成我后面的那种形式,否则会被非法网络爬虫抓取),或者直接联系我的E-mail:gzshuns#163.com (#->@).
前一篇博文《自己动手编写CSDN博客备份工具-blogspider》介绍了blogspider的使用,使用方法很简单,blogspider可以将自己的CSDN博客下载到本地,这里也只提供最基本的功能。这两天有很多哥们儿给我发邮件,想要blogspider的源码,该程序是开源的,有需要的可以留下联系方式。
今天就介绍下blogspider的源代码,其实这里面比较核心的东西就是如何向网站服务器申请我们需要的网页文件。在Java语言,有提供一些网络包,已经将HTTP协议的东西都集成在了包里面,那实现起来就比较简单。最近由于春运期间,大家都在12306网站购票,于是网上就出现了一款抢票的软件,那是用Java写的,是一个谷歌插件。其实那个软件是我一个同事以前的同事写出来的,我们都从这里受益,也买到了回家过年的票,在这里感谢那位牛人。
向Java程序员了解了一下,那个软件的实现原理很简单,步骤如下:
1.访问网站获取网站信息
2.接受到网站服务器的响应消息
3.根据用户选择(硬座,硬卧)的消息再提交到网站服务器
4.得到网站的结果
主要是2个操作:一个是GET方法,一个是POST方法。
GET方法: 从网站服务器下载网页消息,比如网页浏览器可以浏览CSDN网站的新闻与图片,这些都是从网站服务器GET下载到本地;
POST方法:从本地将资料提交到网站服务器,比如在CSDN博客写完文章要点击发表博客,这时候是将一篇文章的所有信息给POST到CSDN服务器。
blogspider的主要目的,就是下载功能,这里使用的是GET方法,用C语言写的都比较低级,这些最基本的都需要自己来实现,等有空看看面向对象编程语言的实现。
废话少说,源码说话:
一.贴出代码中的调试宏,汗,太儿戏了
- /*Debug program macro*/
- #if 0
- #define SPIDER_DEBUG
- #endif
二.贴出代码中的一些宏定义,这些涉及到HTML文件的语法,但本代码不需要会html,只需要最基本的字符串处理:
- #define BUFSIZE 1024
- #define HTML_ARTICLE ("<span class=\"link_title\">")
- #define HTML_MULPAGE ("class=\"pagelist\"")
- #define BLOG_NEXT_LIST ("article/list")
- #define BLOG_TITLE ("title=\"")
- #define BLOG_HREF ("<a href=\"")
- #define BLOG_DATE ("<span class=\"link_postdate\">")
- #define BLOG_READ ("<span class=\"link_view\"")
- #define BLOG_COMMENT ("<span class=\"link_comments\"")
- #define BLOG_SPAN_HEAD ("<span>")
- #define BLOG_SPAN_END ("</span>")
- #define BLOG_RANK ("blog_rank")
- #define BLOG_LI ("<li>")
- #define BLOG_INDEX ("index.html")
- #define CSDN_BLOG_URL ("https://blog.csdn.net")
- #define CSDN_BLOG_HOST ("blog.csdn.net")
- #define CSDN_BLOG_PORT (80)
- #define BLOG_LOCK (10)
- #define BLOG_UNLOCK (11)
- #define BLOG_DOWNLOAD (20)
- #define BLOG_UNDOWNLOAD (21)
上面的BLOG_LOCK,BLOG_UNLOCK是爬虫链表的处理锁,这是扩展预留的,现在还没用。本来要用多线程来处理链表,但经过测试,会产生竞争,导致connect超时,这等过完年再试试。
三.这里再给出爬虫链表的结构体与博客存放基本信息的结构体,里面有多一些变量,但没真正的使用,有些只是预留而已:
- typedef struct tag_blog_info {
- char *b_url; /*网址*/
- char *b_host; /*网站服务器主机名*/
- char *b_page_file; /*页面文件名称*/
- char *b_local_file; /*本地保存的文件名称*/
- char *b_title; /*博客主题*/
- char *b_date; /*博客发表日期*/
- int b_port; /*网址端口号*/
- int b_sockfd; /*网络套接字*/
- int b_reads; /*阅读次数*/
- int b_comments; /*评论次数*/
- int b_download; /*下载状态*/
- int b_lock; /*处理锁*/
- int b_seq_num; /*序号*/
- }blog_info;
- typedef struct tag_blog_spider {
- blog_info *blog;
- struct tag_blog_spider *next;
- }blog_spider;
- typedef struct tag_blog_rank {
- int b_page_total; /*博客总页数*/
- char *b_title; /*博客标题*/
- char *b_page_view; /*博客访问量*/
- char *b_integral; /*博客积分*/
- char *b_ranking; /*博客排名*/
- char *b_original; /*博客原创文章数量*/
- char *b_reship; /*博客转载文章数量*/
- char *b_translation; /*博客译文文章数量*/
- char *b_comments; /*博客评论数量*/
- }blog_rank;
四.在一个程序中,使用全局变量不是最好的方法,但都有优缺点:
使用全局变量:
1.优点:操作简单,不用提供太多的函数形参;
2.缺点:不好维护,代码可读性差;所以该程序只使用了3个全局变量。
- /*global variable*/
- static int g_seq_num = 0;
- static char csdn_id[255];
- static struct hostent *web_host;
web_host变量用来保存"blog.csdn.net"主机信息,在初始化socket的使用会使用到里面的IP地址, web_host->h_addr_list[0];
五.程序中定义了很多函数,如下:
- static char *strrstr(const char *s1, const char *s2);//从s1字符串中查找s2字符串,返回最后一次出现的地址
- static char *strfchr(char *s);//过滤掉s字符串中不规则的字符
- static int init_spider(blog_spider **spider);//初始化博客爬虫节点,必须使用指针的指针,否则达不到预期效果
- static int init_rank(blog_rank **rank);//初始化博客存放基本信息的结构体
- static void insert_spider(blog_spider *spider_head, blog_spider *spider);//将博客插入爬虫链表
- static int spider_size(blog_spider *spider_head);//计算爬虫链表的长度
- static void print_spider(blog_spider *spider_head);//打印爬虫链表,保存到当前目录的*.log文件
- static void print_rank(blog_rank *rank);//打印博客基本信息
- static void free_spider(blog_spider *spider_head);//释放爬虫链表的空间
- static void free_rank(blog_rank *rank);//释放博客基本信息的空间
- static int get_blog_info(blog_spider *spider_head, blog_rank *rank);//从博客主页获取博客标题,博客文章的总页数,积分,排名等信息
- static int analyse_index(blog_spider *spider_head);分析每一页博客的信息,并添加进爬虫链表
- static int download_index(blog_spider *spider_head);//下载博客主页
- static int download_blog(blog_spider *spider);//下载每一篇博客
- static int get_web_host(const char *hostname);//得到"blog.csdn.net"网站的主机信息
- static int connect_web(const blog_spider *spider);//初始化socket,并连接网站服务器
- static int send_request(const blog_spider * spider);//给网站服务器发送请求
- static int recv_response(const blog_spider * spider);//接受网站服务器的响应消息
六.先给出上述2个字符串处理函数,这家伙,有点罗嗦
- /**************************************************************
- strrstr : 查找指定字符串, 返回最后一次出现的地址, 自己实现
- ***************************************************************/
- static char *strrstr(const char *s1, const char *s2)
- {
- int len2;
- char *ps1;
- if (!(len2 = strlen(s2))) {
- return (char *)s1;
- }
- ps1 = (char *)s1 + strlen(s1) - 1;
- ps1 = ps1 - len2 + 1;
- while (ps1 >= s1) {
- if ((*ps1 == *s2) && (strncmp(ps1, s2, len2) == 0)) {
- return (char *)ps1;
- }
- ps1--;
- }
- return NULL;
- }
- /*********************************************************
- strfchr : 查找指定字符串中不规则的字符, 并赋空
- 若没有删除这些不规则的字符,则创建文件的时候将会出错
- *********************************************************/
- static char *strfchr(char *s)
- {
- char *p = s;
- while (*p) {
- if (('/' == *p) || ('?' == *p)) {
- *p = 0;
- strcat(s, "xxx");
- return p;
- }
- p++;
- }
- return NULL;
- }
引用星爷的一句话:"功夫其实绝对是适合男女老幼的,打打杀杀只是大家对它的误解。功夫更加是一种艺术,一种不屈的精神。所以,一直以来我都在找方法想将功夫重新包装起来,使得你们这些升斗小民对功夫能够有更深一层的了解。".
轻松一下,继续:
七.初始化爬虫链表,我把很多处理都给独立到函数了,这样可以增加程序的可读性,不能将所有功能都在main函数实现.
- /*********************************************************
- 初始化博客爬虫的链表节点, 申请空间并赋空值
- *********************************************************/
- static int init_spider(blog_spider * * spider)
- {
- *spider = (blog_spider *)malloc(sizeof(blog_spider));
- if (NULL == *spider) {
- #ifdef SPIDER_DEBUG
- fprintf(stderr, "malloc: %s\n", strerror(errno));
- #endif
- return -1;
- }
- (*spider)->blog = (blog_info *)malloc(sizeof(blog_info));
- if (NULL == (*spider)->blog) {
- #ifdef SPIDER_DEBUG
- fprintf(stderr, "malloc: %s\n", strerror(errno));
- #endif
- free(*spider);
- return -1;
- }
- (*spider)->blog->b_url = NULL;
- (*spider)->blog->b_host = strdup(CSDN_BLOG_HOST);
- (*spider)->blog->b_page_file = NULL;
- (*spider)->blog->b_local_file = NULL;
- (*spider)->blog->b_title = NULL;
- (*spider)->blog->b_date = NULL;
- (*spider)->blog->b_port = CSDN_BLOG_PORT;
- (*spider)->blog->b_sockfd = 0;
- (*spider)->blog->b_reads = 0;
- (*spider)->blog->b_comments = 0;
- (*spider)->blog->b_download = BLOG_UNDOWNLOAD;
- (*spider)->blog->b_lock = BLOG_UNLOCK;
- (*spider)->blog->b_seq_num = 0;
- (*spider)->next = NULL;
- return 0;
- }
- /*********************************************************
- 初始化博客基本信息结构体,包含以下几个变量:
- 1.博客页面总页数
- 2.博客标题
- 3.博客访问量
- 4.博客积分
- 5.博客排名
- 6.博客原创文章数量
- 7.博客转载文章数量
- 8.博客译文文章数量
- 9.博客评论数量
- *********************************************************/
- static int init_rank(blog_rank **rank)
- {
- *rank = (blog_rank *)malloc(sizeof(blog_rank));
- if (NULL == *rank) {
- #ifdef SPIDER_DEBUG
- fprintf(stderr, "malloc: %s\n", strerror(errno));
- #endif
- return -1;
- }
- (*rank)->b_page_total = 0;
- (*rank)->b_title = NULL;
- (*rank)->b_page_view = NULL;
- (*rank)->b_integral = NULL;
- (*rank)->b_ranking = NULL;
- (*rank)->b_original = NULL;
- (*rank)->b_reship = NULL;
- (*rank)->b_translation = NULL;
- (*rank)->b_comments = NULL;
- return 0;
- }
八.爬虫链表的一些处理,这些都比较简单,就都贴出来吧
- /*********************************************************
- 将博客爬虫节点插入爬虫链表
- *********************************************************/
- static void insert_spider(blog_spider * spider_head, blog_spider * spider)
- {
- blog_spider *pspider;
- pspider = spider_head;
- while (pspider->next) {
- pspider = pspider->next;
- }
- pspider->next = spider;
- }
- /*********************************************************
- 返回爬虫链表长度
- *********************************************************/
- static int spider_size(blog_spider * spider_head)
- {
- int count = 0;
- blog_spider *pspider;
- pspider = spider_head;
- while (pspider->next) {
- pspider = pspider->next;
- count++;
- }
- return count;
- }
篇幅有点长,待下篇文章...
周星驰:你来这里干什么?
赵薇:我想帮你们比赛。
周星驰:你怎么帮?你快点回火星吧,地球是很危险的。
唐僧:你想要啊?悟空,你要是想要的话你就说话嘛,你不说我怎么知道你想要呢,虽然你很有诚意地看着我,可是你还是要跟我说你想要的。你真的想要吗?那你就拿去吧!你不是真的想要吧?难道你真的想要吗?……
悟空:我Kao!
在开篇,先happy下,有个好心情,才能天天向上,奋发图强,自强不息。
继《自己动手编写CSDN博客备份工具-blogspider》与《自己动手编写CSDN博客备份工具-blogspider之源码分析(1)》博文后,继续贴出处理的一些函数,原理很简单。
一.在博客的下载过程中,打印了一些信息到屏幕,也保存到了*.log文件
- /*********************************************************
- 将爬虫链表的内容打印到log文件,格式为"csdn_id.log",比如
- 我的博客的地址为: "gzshun.log"
- *********************************************************/
- static void print_spider(blog_spider *spider_head)
- {
- char file[BUFSIZE] = {0};
- char tmpbuf[BUFSIZE] = {0};
- blog_spider *spider;
- FILE *fp;
- sprintf(file, "%s.log", csdn_id);
- fp = fopen(file, "a+");
- if (NULL == fp) {
- #ifdef SPIDER_DEBUG
- fprintf(stderr, "fopen: %s\n", strerror(errno));
- #endif
- return;
- }
- setvbuf(fp, NULL, _IONBF, 0);
- fseek(fp, 0, SEEK_END);
- spider = spider_head->next;
- while (spider) {
- fprintf(fp, "%d:\n"
- "%-15s : %s\n"
- "%-15s : %s\n"
- "%-15s : %s\n"
- "%-15s : %d\n"
- "%-15s : %d\n"
- "%-15s : %s\n\n",
- spider->blog->b_seq_num,
- "title", spider->blog->b_title,
- "url", spider->blog->b_url,
- "date", spider->blog->b_date,
- "reads", spider->blog->b_reads,
- "comments", spider->blog->b_comments,
- "download",
- (spider->blog->b_download == BLOG_DOWNLOAD) ? "Download" : "UnDownload");
- spider = spider->next;
- }
- fclose(fp);
- }
- /*********************************************************
- 将博客的基本信息打印到标准输出
- *********************************************************/
- static void print_rank(blog_rank *rank)
- {
- char file[BUFSIZE] = {0};
- FILE *fp;
- sprintf(file, "%s.log", csdn_id);
- fp = fopen(file, "w+");
- if (NULL == fp) {
- #ifdef SPIDER_DEBUG
- fprintf(stderr, "fopen: %s\n", strerror(errno));
- #endif
- return;
- }
- setvbuf(stdout, NULL, _IONBF, 0);
- fprintf(stdout, "CSDN ID : %s\n"
- "TITLE : %s\n"
- "URL : %s/%s\n"
- "%s\n"
- "%s\n"
- "%s\n"
- "%s\n"
- "%s\n"
- "%s\n"
- "%s\n",
- csdn_id,
- rank->b_title,
- CSDN_BLOG_URL,
- csdn_id,
- rank->b_page_view,
- rank->b_integral,
- rank->b_ranking,
- rank->b_original,
-
rank->b_reship,
最后更新:2017-04-03 20:57:46
上一篇:
各大网站收录入口| 各大搜索引擎提交 | 搜索引擎提交地址
下一篇:
iPhone上安装Android系统详细步骤