代码编织梦想

 连接到数据库pymysql.connect.cursor→创建表CREAT TABLE IF NOT EXISTS→获取网页内容requests.get→解析网页中的链接parsel.Selector.css('a::attr(href)').getall()→将找到的链接插入到数据库INSERT IGNORE INTO

import requests   
import parsel    
import pymysql    
  
# 使用pymysql库的connect方法连接到MySQL数据库  
# 参数包括主机地址、用户名、密码、数据库名称和字符集  
db = pymysql.connect(    
    host="localhost",  # 数据库服务器的主机地址,这里使用本地主机地址localhost  
    user="your_username",  # 数据库的用户名,需要替换为实际的用户名  
    password="your_password",  # 数据库的密码,需要替换为实际的密码  
    database="your_database",  # 要连接的数据库名称,需要替换为实际的数据库名称  
    charset='utf8mb4'  # 字符集设置为utf8mb4,以支持更多的Unicode字符,包括emoji  
)    
# 创建一个数据库游标对象,用于执行SQL查询和获取结果  
cursor = db.cursor()    
  
# 使用游标对象执行SQL语句,如果不存在,则创建一个名为links的表
# 表中有两个字段:id(主键,自动递增,不需要自己插入数据)和url(唯一的非空字符串)  
cursor.execute('''    
    CREATE TABLE IF NOT EXISTS links (    
        id INT AUTO_INCREMENT PRIMARY KEY,    
        url VARCHAR(1024) NOT NULL UNIQUE    
    )    
''')    

# 爬虫部分:
url = "https://example.com"    
   
response = requests.get(url)     
response.raise_for_status()     
selector = parsel.Selector(response.text)    
  
# 使用CSS选择器查找网页中所有的链接(a标签的href属性)  
# 遍历这些链接
for link in selector.css('a::attr(href)').getall():    
    # 检查链接是否以"http"开头
    if link.startswith("http"):    
        try:    
            # 使用游标对象执行SQL INSERT语句,将链接插入到links表中  
            # 使用INSERT IGNORE语句忽略重复插入的错误(如果url已存在,则不插入)  
            cursor.execute("INSERT IGNORE INTO links (url) VALUES (%s)", (link,))    
            # 提交事务,确保数据被保存到数据库中  
            db.commit()    
            # 打印插入的链接  
            print(f"Inserted link: {link}")    
        except pymysql.MySQLError as e:  # 捕获MySQL错误异常  
            # 如果插入操作发生错误,打印错误信息并回滚事务(撤销之前的操作)  
            print(f"Error inserting link: {link} - {e}")    
            db.rollback()    
  
# 关闭数据库连接  
db.close()

 

 

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/YHKKun/article/details/136275269

数据爬取存入mysql数据库_python_qb的博客-爱代码爱编程

目录 创建test数据库 创建test的数据库 ''' 创建数据库 ''' self.mydb = pymysql.connect( host="localhost", user="你的用户名", password="你的密码" ) self.mycursor = self.mydb.cursor() #游标 self.mycursor.exe

python爬虫数据入库_java大数据的博客-爱代码爱编程

前言:         关于Python爬取的数据进入数据库格式几乎是固定的,按照固定的形式,笔者认为记下固定的形式,这里就没用什么困难的地方了。 常规格式:          """ mysql:默认只接受来自本地ip的访问 mysql:默认只接受来自本地用户的访问 """ from pymysql import * # 连接mysql数据库

一篇文章让你轻松学会python爬取的数据保存到mysql中,有案例哦_凯欣爱编程的博客-爱代码爱编程

文章目录 pymysql 基本使用 八个步骤以及案例分析一.导入pymysql模块二.获取到database的链接对象三.创建数据表的方法四.获取执行sql语句的光标对象五.定义要执行的sql语句1.sql的增加数据

【爬虫】将爬取的内容写入mysql数据库_fx_2003的博客-爱代码爱编程

本文目录   内容简介: 一、什么是MySQLdb? 二、如何安装MySQLdb? 三、基本操作 插入  四、将爬取的内容写入: 1、爬取目标:标题 2、分析 3、代码如下: 4、爬取内容如下:     内容简介: 本文将爬取的内容存入sql数据库 简单介绍了以下MySqldb 一、什么是MySQLdb?

python爬虫几个步骤教你写入mysql数据库-爱代码爱编程

Python爬虫几个步骤教你写入mysql数据库 Python爬虫实现爬取网站中的数据并存入MySQL数据库中,在爬取的时候总要涉及到数据持久化存储,当然有很多中存储的方式,简单点的有excel、txt、json、csv等

python怎么往mysql里面存取数据!-爱代码爱编程

要往MySQL数据库中存取数据,可以使用Python的MySQL Connector模块。 以下是示例代码: 连接数据库 import mysql.connector # 连接数据库 mydb = mysql.connector.connect( host="localhost", user="yourusername", password="y

如何使用python实现简单爬取网页数据并导入mysql中的数据库-爱代码爱编程

前言:要使用 Python 爬取网页数据并将数据导入 MySQL 数据库,您需要使用 Requests 库进行网页抓取,使用 BeautifulSoup 库对抓取到的 HTML 进行解析,并使用 PyMySQL 库与 MySQL 进行交互。 以下是一个简单的示例: 1.  安装所需库: ``` pip install requests beautif

爬取数据并写入mysql数据库_get sample data to mysql-爱代码爱编程

1.爬取思路总结概述:         a.请求网页,获取json数据:request函数         b.使正则re 模块,提取出 { {……} }信息所在部分的字典 :re.search()         c.为了防止连续请求中出现,IP被封的风险,将数据保存到文件中,实现数据永久化存储         d.读取文件中的数据,数据筛选,提

爬虫实战(一)python+selenium自动化获取数据存储到mysql中_python爬取数据并存入数据库案例-爱代码爱编程

  行话说得好,“爬虫学得好,牢饭吃到饱!”哈哈博主是因这句话入的坑,不为别的就为邀大家一起铁窗泪(bushi),本人虽小牛一只,但是喜爱捣鼓技术,有兴趣的小伙伴们可以共同探讨,也欢迎各位大佬们的指点,愿共同进步! 从Se

爬虫实战四、pycharm+scrapy爬取数据并存入mysql-爱代码爱编程

注意:此博客衔接爬虫实战三、PyCharm搭建Scrapy开发调试环境,参考此博客之前请详细阅读爬虫实战三、PyCharm搭建Scrapy开发调试环境 #一、创建爬虫项目 注意:不能直接使用PyCharm创建Scrapy

爬虫结果写入mysql_将爬取下来的帖子的数据按行插入mysql表中,并查看数据是否存储成功-爱代码爱编程

前言 今天用一个实际案例来演示怎样将爬虫提取到的数据保存到MySQL中, 我们需要将如下内容(红框中)保存至MySQL中。 # 一、用到的python模块 import requests #网络请求模块 from pa

使用python爬取链家二手房信息并保存到mongodb与mysql_链家二手房信息爬取-爱代码爱编程

使用Python爬取链家二手房信息并保存到MongoDB与MySQL 🏡💻 在本教程中,我们将学习如何使用Python爬取链家网站的二手房信息,并将爬取的数据保存到两种不同的数据库:MongoDB和MySQL。这个过程将包