python实战:将爬虫获取到的数据存到数据库中_把爬虫的数据导入数据-爱代码爱编程
在前几篇 Python 实战中,我们直接把爬虫获取到的数据存储到 excel 文件或者 csv 文件中。今天,我们将爬虫获取到的数据存储到数据库中。
而存到数据库中,我们可以选择 MySQL、PostgreSQL、SqLite、Sql Server 等数据库。
在这些数据库中 SqLite 最轻量级、不需要配置,Python 自带 SQLite ,今天我们选择将爬虫获取到的数据存到 SQLite 数据库中,以便以后进行查询和分析。
一、SQLite 简介
SQLite 是一个轻量级的关系型数据库,它是一个开源的嵌入式数据库引擎。SQLite 占用资源非常少,通常用于嵌入式应用程序和移动设备,也经常被用作桌面应用程序的本地数据库。由于其小巧和便携性,SQLite 成为了许多开发人员的首选数据库。
二、创建sqlite数据库
Python 的标准库中包含了一个名为 sqlite3
的模块,可以用于访问 SQLite 数据库。要使用 SQLite,只需在 Python 代码中导入 sqlite3
模块即可。
# 导入模块
import sqlite3
# 连接数据库
conn = sqlite3.connect('sqlite_test.db')
# 创建一个游标对象,用于执行 SQL 语句
cursor = conn.cursor()
# 创建表
cursor.execute('''CREATE TABLE person
(id varchar(20) PRIMARY KEY,
name varchar(20));''')
# 新增
cursor.execute("INSERT INTO person (id, name) VALUES ('1', '张三')")
cursor.execute("INSERT INTO person (id, name) VALUES ('2', '李四')")
cursor.execute("INSERT INTO person (id, name) VALUES ('3', '王五')")
# 关闭 cursor
cursor.close()
# 提交当前事务
conn.commit()
# 关闭连接
conn.close()
在同一级文件目录下,可以查看刚才执行程序后生成的数据库文件,截图如下:
三、数据库图形化工具
我们可以通过 SQLiteStudio、Navicat for SQLite 等图形化工具,或者在 Pycharm 中安装 Database Navigator 插件,直观的查看数据库表结构和数据。
本文使用 SQLiteStudio 图形化工具。
1、SQLiteStudio
- GitHub 开源地址:
https://github.com/pawelsalawa/sqlitestudio
- 下载地址 1:
https://sqlitestudio.pl/
- 下载地址 2:
https://github.com/pawelsalawa/sqlitestudio/releases
下载、安装、打开 SQLiteStudio,连接刚才生成的sqlite_test.db
数据库文件,打开person
表,就可以直观的看到刚才写入到数据库中的数据。
2、Database Navigator插件
也可以在 Pycharm 中安装 Database Navigator 插件,查看数据库表结构和数据。
四、爬虫实战
以爬取王者荣耀官网展示的 117 个英雄,保存到 SQLite 数据库为例。
打开王者荣耀官网——英雄资料网页,url 为https://pvp.qq.com/web201605/herolist.shtml
打开开发者工具,查看 Network 中的请求,找到heroist.json
这个请求,在 Headers 里可以找到请求 url 为https://pvp.qq.com/web201605/js/herolist.json
在 Response 里可以看到返回的是 117 个英雄的属性,我们只保存其中的ename
、cname
、 title
、skin_name
4 个字段到本地数据库。
分析完成,开始写爬虫代码和保存到 SQLite 数据库的代码。
完整代码如下:
import requests
import pandas as pd
import sqlite3
url = "https://pvp.qq.com/web201605/js/herolist.json"
response_json = requests.get(url).json()
df = pd.json_normalize(response_json, errors='ignore')
# 选择保存的列
df = df.loc[:, ['ename', 'cname', 'title', 'skin_name']]
# 创建一个SQLite数据库连接
conn = sqlite3.connect('herolists.db')
# 将DataFrame写入SQLite数据库
df.to_sql('herolists_table', conn, if_exists='replace', index=False)
# 提交更改并关闭连接
conn.commit()
conn.close()
上面代码的执行逻辑如下:
- 导入所需的库:
requests
(用于发送 HTTP 请求),pandas
(用于处理数据)和sqlite3
(用于连接 SQLite 数据库)。 - 定义 API 的 URL。
- 使用
requests.get()
方法获取 API 的响应,并使用json()
方法将其转换为 JSON 格式。 - 使用
pd.json_normalize()
方法将 JSON 数据转换为 Pandas DataFrame。 - 选择要保存的列(
ename
、cname
、title
和skin_name
)。 - 使用
sqlite3.connect()
方法创建一个 SQLite 数据库连接。 - 使用
df.to_sql()
方法将 DataFrame 写入 SQLite 数据库。if_exists='replace'
参数表示如果表已存在,则替换它。index=False
参数表示不包含索引列。 - 使用
conn.commit()
方法提交更改,并使用conn.close()
方法关闭连接。
五、查看数据
使用 SQLiteStudio 图形化工具,连接刚才生成的herolists.db
数据库文件,打开herolists_table
表,就可以直观的看到刚才写入到数据库中的数据,117 条数据已经保存到 SQLite 数据库。
六、总结
在这个 Python 实战中,我们学习了如何将爬虫获取到的数据存储到数据库中。首先,我们使用requests
库获取了 API 的数据,并将其转换为 JSON 格式。然后,我们使用pandas
库将 JSON 数据转换为 DataFrame,并从中选择了需要保存的列。接下来,我们使用sqlite3
库创建了一个 SQLite 数据库连接,并将 DataFrame 写入到了数据库中。最后,我们提交了更改并关闭了连接。
通过这个实战,我们学会了如何使用 Python 将爬虫获取到的数据存储到 SQLite 数据库中。这为我们在实际项目中处理和分析数据提供了很大的便利。然而,这仅仅是一个简单的示例,实际项目中可能需要处理更复杂的数据和数据库。因此,我们需要不断学习和探索,以提高自己的数据处理能力。
本文首发在“程序员coding”公众号,欢迎关注与我一起交流学习。