python爬虫6:爬虫和数据库的连接

目标:爬取电影网站的电影详情并保存到mysql数据库中

一.设计好数据库和表字段,连接数据库

在这里插入图片描述
连接数据库,参考链接

#数据库连接
def sql(moviename,years,ziyuan,daoyan,zhuyan,leixing,address,yuyan,pianchang,othername,pdianji,pingfen,jieshao,src):
    #本机数据库地址
    db = pymysql.connect(host='host地址', user='账号', password='密码', db='数据库')
    # 使用cursor()方法创建一个游标对象cursor
    cursor = db.cursor()
    # 数据库操作
    # 定义一个格式化的sql语句
    sql = 'INSERT INTO `pydb`.`movies`(`moviename`, `years`, `ziyuan`, `daoyan`, `zhuyan`, `leixing`, `address`, `yuyan`, `pianchang`, `othername`, `pdianji`, `pingfen`, `jieshao`,`src`) VALUES (%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s)'
    # 准备数据
    data = (moviename,years,ziyuan,daoyan,zhuyan,leixing,address,yuyan,pianchang,othername,pdianji,pingfen,jieshao,src)
    # 操作
    try:
        # 执行sql语句
        cursor.execute(sql, data)
        # 提交
        db.commit()
        print('正在插入数据:--'+str(moviename))
    except Exception as e:
        print('插入--'+str(moviename)+'--数据失败', e)
        # 如果出错执行回滚
        db.rollback()  # 回滚
    # 关闭游标
    cursor.close()
    # 关闭连接
    db.close()

二.先尝试保存一页的数据到数据库中

#电影的详情
def moviexiangqing():
    url='https://www.piaku.cc/k/tiejiagangquan/'
    response = requests.get(url=url, headers=header)
    html = etree.HTML(response.text)
    # 电影名
    name = html.xpath("//div[@class='main-ui-meta']/h1/text()")
    # 电影发布的时间
    year 
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值