代码编织梦想

很多人学Python,都是从爬虫开始的,毕竟网上类似的资源很丰富,开源项目也非常多。

Python学习网络爬虫主要分3个大的版块: 抓取分析存储

当我们在浏览器中输入一个url后回车,后台会发生什么?

简单来说这段过程发生了以下四个步骤:

•查找域名对应的IP地址。•向IP对应的服务器发送请求。•服务器响应请求,发回网页内容。•浏览器解析网页内容。

那么学习爬虫需要掌握哪些库呢

通用:

1.urllib -网络库(stdlib)。
2.requests -网络库。
3.grab – 网络库(基于pycurl)。
4.pycurl – 网络库(绑定libcurl)。
5.urllib3 – Python HTTP库,安全连接池、支持文件post、可用性高。
6.httplib2 – 网络库。
7.RoboBrowser – 一个简单的、极具Python风格的Python库,无需独立的浏览器即可浏览网页。
8.MechanicalSoup -一个与网站自动交互Python库。
9.mechanize -有状态、可编程的Web浏览库。
10.socket – 底层网络接口(stdlib)。
11.Unirest for Python – Unirest是一套可用于多种语言的轻量级的HTTP库。
12.hyper – Python的HTTP/2客户端。
13.PySocks – SocksiPy更新并积极维护的版本,包括错误修复和一些其他的特征。作为socket模块的直接替换。

网络爬虫框架

1.功能齐全的爬虫

•grab – 网络爬虫框架(基于pycurl/multicur)。•scrapy – 网络爬虫框架(基于twisted),不支持Python3。•pyspider – 一个强大的爬虫系统。•cola – 一个分布式爬虫框架。

2.其他

•portia – 基于Scrapy的可视化爬虫。•restkit – Python的HTTP资源工具包。它可以让你轻松地访问HTTP资源,并围绕它建立的对象。•demiurge – 基于PyQuery的爬虫微框架。

HTML/XML解析器

1.通用

•lxml – C语言编写高效HTML/ XML处理库。支持XPath。•cssselect – 解析DOM树和CSS选择器。•pyquery – 解析DOM树和jQuery选择器。•BeautifulSoup – 低效HTML/ XML处理库,纯Python实现。•html5lib – 根据WHATWG规范生成HTML/ XML文档的DOM。该规范被用在现在所有的浏览器上。•feedparser – 解析RSS/ATOM feeds。•MarkupSafe – 为XML/HTML/XHTML提供了安全转义的字符串。•xmltodict – 一个可以让你在处理XML时感觉像在处理JSON一样的Python模块。•xhtml2pdf – 将HTML/CSS转换为PDF。•untangle – 轻松实现将XML文件转换为Python对象。

2.清理

•Bleach – 清理HTML(需要html5lib)。•sanitize – 为混乱的数据世界带来清明。

文本处理

用于解析和操作简单文本的库。

1.通用
2.difflib – (Python标准库)帮助进行差异化比较。
3.Levenshtein – 快速计算Levenshtein距离和字符串相似度。
4.fuzzywuzzy – 模糊字符串匹配。
5.esmre – 正则表达式加速器。
6.ftfy – 自动整理Unicode文本,减少碎片化。

自然语言处理

处理人类语言问题的库。

•NLTK -编写Python程序来处理人类语言数据的最好平台。•Pattern – Python的网络挖掘模块。他有自然语言处理工具,机器学习以及其它。•TextBlob – 为深入自然语言处理任务提供了一致的API。是基于NLTK以及Pattern的巨人之肩上发展的。•jieba – 中文分词工具。•SnowNLP – 中文文本处理库。•loso – 另一个中文分词库。

浏览器自动化与仿真

•selenium – 自动化真正的浏览器(Chrome浏览器,火狐浏览器,Opera浏览器,IE浏览器)。•Ghost.py – 对PyQt的webkit的封装(需要PyQT)。•Spynner – 对PyQt的webkit的封装(需要PyQT)。•Splinter – 通用API浏览器模拟器(selenium web驱动,Django客户端,Zope)。

多重处理

•threading – Python标准库的线程运行。对于I/O密集型任务很有效。对于CPU绑定的任务没用,因为python GIL。•multiprocessing – 标准的Python库运行多进程。•celery – 基于分布式消息传递的异步任务队列/作业队列。•concurrent-futures – concurrent-futures 模块为调用异步执行提供了一个高层次的接口。

异步

异步网络编程库

•asyncio – (在Python 3.4 +版本以上的 Python标准库)异步I/O,时间循环,协同程序和任务。•Twisted – 基于事件驱动的网络引擎框架。•Tornado – 一个网络框架和异步网络库。•pulsar – Python事件驱动的并发框架。•diesel – Python的基于绿色事件的I/O框架。•gevent – 一个使用greenlet 的基于协程的Python网络库。•eventlet – 有WSGI支持的异步框架。•Tomorrow – 异步代码的奇妙的修饰语法。

队列

•celery – 基于分布式消息传递的异步任务队列/作业队列。•huey – 小型多线程任务队列。•mrq – Mr. Queue – 使用redis & Gevent 的Python分布式工作任务队列。•RQ – 基于Redis的轻量级任务队列管理器。•simpleq – 一个简单的,可无限扩展,基于Amazon SQS的队列。•python-gearman – Gearman的Python API。

云计算

•picloud – 云端执行Python代码。•dominoup.com – 云端执行R,Python和matlab代码

网页内容提取

提取网页内容的库。

•HTML页面的文本和元数据•newspaper – 用Python进行新闻提取、文章提取和内容策展。•html2text – 将HTML转为Markdown格式文本。•python-goose – HTML内容/文章提取器。•lassie – 人性化的网页内容检索工具

WebSocket

用于WebSocket的库。

•Crossbar – 开源的应用消息传递路由器(Python实现的用于Autobahn的WebSocket和WAMP)。•AutobahnPython – 提供了WebSocket协议和WAMP协议的Python实现并且开源。•WebSocket-for-Python – Python 2和3以及PyPy的WebSocket客户端和服务器库。

DNS解析

•dnsyo – 在全球超过1500个的DNS服务器上检查你的DNS。•pycares – c-ares的接口。c-ares是进行DNS请求和异步名称决议的C语言库。

计算机视觉

•OpenCV – 开源计算机视觉库。•SimpleCV – 用于照相机、图像处理、特征提取、格式转换的简介,可读性强的接口(基于OpenCV)。•mahotas – 快速计算机图像处理算法(完全使用 C++ 实现),完全基于 numpy 的数组作为它的数据类型。

web开发的一些框架

1.Django

Django是一个开源的Web应用框架,由Python写成,支持许多数据库引擎,可以让Web开发变得迅速和可扩展,并会不断的版本更新以匹配Python最新版本,如果是新手程序员,可以从这个框架入手。

2.Flask

Flask是一个轻量级的Web应用框架, 使用Python编写。基于 WerkzeugWSGI工具箱和 Jinja2模板引擎。使用 BSD 授权。

Flask也被称为 “microframework” ,因为它使用简单的核心,用 extension 增加其他功能。Flask没有默认使用的数据库、窗体验证工具。然而,Flask保留了扩增的弹性,可以用Flask-extension加入这些功 能:ORM、窗体验证工具、文件上传、各种开放式身份验证技术。

3.Web2py

在这里插入图片描述

Web2py是一个用Python语言编写的免费的开源Web框架,旨在敏捷快速的开发Web应用,具有快速、可扩展、安全以及可移植的数据库驱动的应用,遵循LGPLv3开源协议。

Web2py提供一站式的解决方案,整个开发过程都可以在浏览器上进行,提供了Web版的在线开发,HTML模版编写,静态文件的上传,数据库的编写的功能。其它的还有日志功能,以及一个自动化的admin接口。

4.Tornado

Tornado即是一个Web server(对此本文不作详述),同时又是一个类web.py的micro-framework,作为框架Tornado的思想主要来源于Web.py,大家在Web.py的网站首页也可以看到Tornado的大佬Bret Taylor的这么一段话(他这里说的FriendFeed用的框架跟Tornado可以看作是一个东西):

因为有这层关系,后面不再单独讨论Tornado。

5.CherryPy

CherryPy是一种用于Python的、简单而非常有用的Web框架,其主要作用是以尽可能少的操作将Web服务器与Python代码连接,其功能包括内置的分析功能、灵活的插件系统以及一次运行多个HTTP服务器的功能,可与运行在最新版本的Python、Jython、Android上。

关于框架的选择误区

在框架的选择问题上,许多人很容易就陷入了下面两个误区中而不自知:哪个框架最好——世上没有最好的框架,只有最适合你自己、最适合你的团队的框架。编程语言选择也是一个道理,你的团队Python最熟就用Python好了,如果最熟悉的是Ruby那就用Ruby好了,编程语言、框架都只是工具,能多、快、好、省的干完活就是好东西。

过分关注性能——其实大部分人是没必要太关心框架的性能的,因为你开发的网站根本就是个小站,能上1万的IP的网站已经不多了,上10万的更是很少很少。在没有一定的访问量前谈性能其实是没有多大意义的,因为你的CPU和内存一直就闲着呢。

关于Python学习指南

学好 Python 不论是就业还是做副业赚钱都不错,但要学会 Python 还是要有一个学习规划。最后给大家分享一份全套的 Python 学习资料,给那些想学习 Python 的小伙伴们一点帮助!

包括:Python激活码+安装包、Python web开发,Python爬虫,Python数据分析,人工智能、自动化办公等学习教程。带你从零基础系统性的学好Python!

👉Python所有方向的学习路线👈

Python所有方向路线就是把Python常用的技术点做整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。(全套教程文末领取)

在这里插入图片描述

👉Python学习视频600合集👈

观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

温馨提示:篇幅有限,已打包文件夹,获取方式在:文末

👉Python70个实战练手案例&源码👈

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉Python大厂面试资料👈

我们学习Python必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。

在这里插入图片描述

在这里插入图片描述

👉Python副业兼职路线&方法👈

学好 Python 不论是就业还是做副业赚钱都不错,但要学会兼职接单还是要有一个学习规划。

在这里插入图片描述

👉 这份完整版的Python全套学习资料已经上传,朋友们如果需要可以扫描下方CSDN官方认证二维码或者点击链接免费领取保证100%免费

点击免费领取《CSDN大礼包》:Python入门到进阶资料 & 实战源码 & 兼职接单方法 安全链接免费领取

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/wly55690/article/details/135836699

python网络爬虫之解析库_weeping_cat的博客-爱代码爱编程

Xpath,全称XML path language,即XML路径语言,它是一门在XML文档中查找信息的语言,但是它同样适用于HTML文档的搜索 XPath常用规则 表达式 描述 n

python爬虫基础(二)—— 使用解析库-爱代码爱编程

文章目录 使用XPathXPath常用规则例子引入获取所有节点子节点父节点属性匹配文本获取属性获取含有多个值的属性的匹配根据多条属性来获取节点根据出现的次序筛选同样符合条件的节点集节点轴选择 使用Beautifu

python爬虫-3 解析库-爱代码爱编程

1.XPath   2.BeautifulSoup import requests from bs4 import BeautifulSoup headers = {'Accept-Encoding': 'gzip, deflate', 'Accept-Language': 'zh-CN,zh;q=0.8',

python那个爬虫库好用?_墨图丿的博客-爱代码爱编程

Python下的爬虫库,一般分为3类。   抓取类 urllib(Python3),这是Python自带的库,可以模拟浏览器的请求,获得Response用来解析,其中提供了丰富的请求手段,支持Cookies、Header

python网络爬虫之各种库的功能介绍及解析库、存储库_妖气当然你的博客-爱代码爱编程_python爬虫库的功能

  网络爬虫实践,各种库的功能及爬虫的解析库 爬虫步骤一般分为三个步骤:抓取页面,分析页面,存储数据 其中对于我们而言最重要的就是反爬了,下面为大家介绍python爬虫各种相关的库,以便大家详细了解爬虫的整体架构及思想1、常见库的基本介绍 (1)请求库:实现http请求操作requests:阻塞式http请求库,发出一个请求,一直等待服务器响应后,程

python爬虫之基本解析库和选择器_妖气当然你的博客-爱代码爱编程

基本库,常用的http库urllib,httplib2,requests urllib的四大模块, request请求网址, error异常处理, parse:url处理,拆分,解析,合并, robotparser request.BaseHandler的子类 Handler:处理器,登录验证,cookie,代理设置, 主要是处理发送请求,用户名密码认证,

Python爬虫 解析库的使用-爱代码爱编程

已写章节 第一章 网络爬虫入门第二章 基本库的使用 第三章 解析库的使用第四章 数据存储第五章 动态网页的抓取 文章目录 已写章节第三章 解析库的使用3.1BeautifulSoup3.1.1 BeautifulSoup的安装3.1.2 BeautifulSoup库的理解3.1.3 解析器3.1.4 BeautifulSoup的基本使用3.1.

快速入门 Python 爬虫常用解析库(xpath、bs4)-爱代码爱编程

目录 第一章 XPath 解析第二章 Beautiful Soup 模块 第一章 XPath 解析 在 Python 中可以支持 XPath 提取数据的解析模块有很多,本文主要介绍 lxml 模块,该模块可以解析 HTML 与 XML,并且支持 XPath 解析方式。由于 lxml 模块 为第三方模块,需要通过 pip install lxm

python爬虫之xpath解析库_戎笔的博客-爱代码爱编程

XPath学习 1.XPath简介 XPath,全称XML Path Language,即XML路径语言,拥有简单明了的路径选择表达式,提供有100个内建函数,实现对字符串、数值、时间的匹配以及节点、序列的处理。应用于在

python爬虫利器之解析库的使用-爱代码爱编程

对于一个刚学Python爬虫的新手来说,学习Python爬虫里面的「解析库的使用」如果没有超强记忆力,估计是边学边忘,正所谓好记性不如烂笔头,在自己学些爬虫相关的知识点可以记录下来然后多次实践肯定比单凭记忆力要记得牢,下面我

python爬虫讲解(超详细)-爱代码爱编程

Python爬虫是一种通过编写程序自动从互联网上获取数据的技术。下面是Python爬虫的详解: 爬虫的基本原理 爬虫的基本原理是**通过模拟浏览器的行为**,访问目标网站,并获取目标页面中的数据。Python爬虫