成都创新互联网站制作重庆分公司

Python爬虫:爬取小说并存储到数据库

爬取小说网站的小说,并保存到数据库

专注于为中小企业提供网站设计、做网站服务,电脑端+手机端+微信端的三站合一,更高效的管理,为中小企业宜昌免费做网站提供优质的服务。我们立足成都,凝聚了一批互联网行业人才,有力地推动了上千企业的稳健成长,帮助中小企业通过网站建设实现规模扩充和转变。

第一步:先获取小说内容

#!/usr/bin/python
# -*- coding: UTF-8 -*-

import urllib2,re

domain = 'http://www.quanshu.net'
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36"
}

def getTypeList(pn=1): #获取分类列表的函数
    req = urllib2.Request('http://www.quanshu.net/map/%s.html' % pn) #实例将要请求的对象
    req.headers = headers  #替换所有头信息
    #req.add_header() #添加单个头信息
    res = urllib2.urlopen(req)   #开始请求
    html = res.read().decode('gbk')  #decode解码,解码成Unicode
    reg = r'(.*?)'
    reg = re.compile(reg) #增加匹配效率  正则匹配返回的类型为List

    return re.findall(reg,html)

def getNovelList(url):  #获取章节列表函数
    req = urllib2.Request(domain + url)
    req.headers = headers
    res = urllib2.urlopen(req)
    html = res.read().decode('gbk')
    reg = r'
  • (.*?)
  • '     reg = re.compile(reg)     return re.findall(reg,html) def getNovelContent(url):  #获取章节内容     req = urllib2.Request(domain + url)     req.headers = headers     res = urllib2.urlopen(req)     html = res.read().decode('gbk')     reg = r'style5\(\);(.*?)style6\(\)'     return re.findall(reg,html)[0] if __name__ == '__main__':     for type in range(1,10):         for url,title in getTypeList(type):             for zurl,ztitle in getNovelList(url):                 print u'正则爬取----%s' %ztitle                 content = getNovelContent(url.replace('index.html',zurl))                 print content             break         break

    执行后结果如下:

    Python爬虫:爬取小说并存储到数据库

    第二步:存储到数据库

    1、设计数据库

    1.1 新建库:novel

    Python爬虫:爬取小说并存储到数据库

    1.2 设计表:novel

    Python爬虫:爬取小说并存储到数据库

    1.3 设计表:chapter

    Python爬虫:爬取小说并存储到数据库

    并设置外键

    Python爬虫:爬取小说并存储到数据库


    2、编写脚本

    #!/usr/bin/python
    # -*- coding: UTF-8 -*-
    
    import urllib2,re
    import MySQLdb
    
    class Sql(object):
        conn = MySQLdb.connect(host='192.168.19.213',port=3306,user='root',passwd='Admin123',db='novel',charset='utf8')
        def addnovels(self,sort,novelname):
            cur = self.conn.cursor()
            cur.execute("insert into novel(sort,novelname) values(%s , '%s')" %(sort,novelname))
            lastrowid = cur.lastrowid
            cur.close()
            self.conn.commit()
            return lastrowid
        def addchapters(self,novelid,chaptername,content):
            cur = self.conn.cursor()
            cur.execute("insert into chapter(novelid,chaptername,content) values(%s , '%s' ,'%s')" %(novelid,chaptername,content))
            cur.close()
            self.conn.commit()
    
    
    domain = 'http://www.quanshu.net'
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36"
    }
    
    def getTypeList(pn=1): #获取分类列表的函数
        req = urllib2.Request('http://www.quanshu.net/map/%s.html' % pn) #实例将要请求的对象
        req.headers = headers  #替换所有头信息
        #req.add_header() #添加单个头信息
        res = urllib2.urlopen(req)   #开始请求
        html = res.read().decode('gbk')  #decode解码,解码成Unicode
        reg = r'(.*?)'
        reg = re.compile(reg) #增加匹配效率  正则匹配返回的类型为List
    
        return re.findall(reg,html)
    
    def getNovelList(url):  #获取章节列表函数
        req = urllib2.Request(domain + url)
        req.headers = headers
        res = urllib2.urlopen(req)
        html = res.read().decode('gbk')
        reg = r'
  • (.*?)
  • '     reg = re.compile(reg)     return re.findall(reg,html) def getNovelContent(url):  #获取章节内容     req = urllib2.Request(domain + url)     req.headers = headers     res = urllib2.urlopen(req)     html = res.read().decode('gbk')     reg = r'style5\(\);(.*?)style6\(\)'     return re.findall(reg,html)[0] mysql = Sql() if __name__ == '__main__':     for sort in range(1,10):         for url,title in getTypeList(sort):             lastrowid = mysql.addnovels(sort, title)             for zurl,ztitle in getNovelList(url):                 print u'正则爬取----%s' %ztitle                 content = getNovelContent(url.replace('index.html',zurl))                 print u'正在存储----%s' %ztitle                 mysql.addchapters(lastrowid,ztitle,content)

    3、执行脚本

    Python爬虫:爬取小说并存储到数据库

    4、查看数据库

    Python爬虫:爬取小说并存储到数据库

    Python爬虫:爬取小说并存储到数据库

    可以看到已经存储成功了。

    报错:

    _mysql_exceptions.OperationalError: (1364, "Field 'novelid' doesn't have a default value")

    解决:执行sql语句

    SELECT @@GLOBAL.sql_mode;

    SET @@GLOBAL.sql_mode="NO_ENGINE_SUBSTITUTION";

    Python爬虫:爬取小说并存储到数据库


    报错参考:http://blog.sina.com.cn/s/blog_6d2b3e4901011j9w.html


    新闻标题:Python爬虫:爬取小说并存储到数据库
    网页路径:http://cxhlcq.com/article/pcdjpd.html

    其他资讯

    在线咨询

    微信咨询

    电话咨询

    028-86922220(工作日)

    18980820575(7×24)

    提交需求

    返回顶部