代码编织梦想

import requests
from lxml import etree
#获取小说URL
urls =['http://www.ddxs.com/wozaishuihukailegegua/{}.html'.format(i) for i in range(1,24)]
#保存地址
path = r"C:\Users\Administrator\Desktop\kate\k"
#获取小说内容
def get_text(url):
    r = requests.get(url)
    r.encoding='utf-8'
    selector = etree.HTML(r.text)
    #获取标题
    title = selector.xpath('//*[@id="amain"]/dl/dd[1]/text()')
    #获取正文
    text = selector.xpath('//*[@id="contents"]/text()')
    with open(path+title[0],'w',encoding='utf-8') as f:
         for i in text:
             f.write(i)
if  __name__  =='__main__':
    for url in urls:
        get_text(url)

运行后出现:

C:\Users\Administrator\AppData\Local\Programs\Python\Python38\python.exe E:/phython/kate/文献批量下载.py
Traceback (most recent call last):
  File "E:/phython/kate/文献批量下载.py", line 21, in <module>
    get_text(url)
  File "E:/phython/kate/文献批量下载.py", line 16, in get_text
    with open(path+title[0],'w',encoding='utf-8') as f:
FileNotFoundError: [Errno 2] No such file or directory: 'C:\\Users\\Administrator\\Desktop\\kate\\k\n                    '

Process finished with exit code 1

不知道改了什么突然不行了,请问是哪里有问题?另外,为什么用这个爬下来得标题是k+title,文件类型也不是txt?

 

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/kate54673855/article/details/120732188

爬虫技术经历-爱代码爱编程

1. 前言 爬虫,这个词很多朋友第一次听到,第一感觉应该是各种小虫子,应该不会和某种计算机技术联系在一起。我第一次听到这个词,就是这样一个感觉。但是当这个这个词前面加了网络二字时,瞬间勾起了我的兴趣,当然也带来了疑问。比如,网络爬虫是什么?有什么用?后来带着强烈的兴趣和疑问,查询了很多资料,以求搞清除我的疑问。当我的疑问被解决的解决之后,怀着对爬虫技术崇

python爬取wfxnews 小说网站,实现批量下载小说_河工大某某的博客-爱代码爱编程

1. 小说网站为  https://m.wfxnews.com/ 2. 分析网页结构  下载小说的API如下: https://www.wfxnews.com/modules/article/txtarticle.php?id=112451 通过以下网址,可获得书籍信息 https://m.wfxnews.com/book/112451.s

Python爬虫,批量下载小说网站上的小说!-爱代码爱编程

爬虫脚本把这个小说网上的几乎所有小说都下载到了本地,一共27000+本小说,一共40G。   完整代码:                                                                                      #coding=utf-8 2 import urllib 3 im

9. Request & 爬虫-爱代码爱编程

from urllib import request def get_request(): with request.urlopen('http://www.baidu.com') as f: data=f.read() print('Status:',f.status,f.reason) for

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了-爱代码爱编程

你看到文末,肯定不会失望的 这一个多月以来,相信大部分人都跟我一样:早上打开手机的第一件事是看有关疫情的最新新闻,看今日有没有新增人数,新增了多少。眼看着数据从一开始的几十发展到现在的快8W,渐渐地数据在我们眼里就只是一串数字。     我们从数字中、新闻报道里都可以看出它的严重性,但是,如果我们通过数字仔细观察每一个患者的经历,真实

爬虫基础笔记-爱代码爱编程

文章目录 requests 库基本操作beautifulsoup 库基本操作re库基本操作 requests 库基本操作 #_author: 86138 #date: 2020/3/29 # import requests #亚马逊爬取 # url = "https://www.amazon.cn/dp/B07CRHCK77?sm

介绍一位零基础学Python网络爬虫的工程师-爱代码爱编程

    今天给大家推荐一位软件开发工程师兼Python网络爬虫与数据分析爱好者,它是「Python爬虫与数据挖掘」公众号号主Python进阶者。他系一名软件开发工程师,在工作之余,热爱Python编程,专注于网络爬虫与数据分析(R语言、水晶易表)。     和很多技术人一样,他身上并没有流着正统的计算机血液,他是研究生的时候才转行计算机编程,在此之

python新手怎么兼职-利用python兼职-爱代码爱编程

广告关闭 2017年12月,云+社区对外发布,从最开始的技术博客到现在拥有多个社区产品。未来,我们一起乘风破浪,创造无限可能。 类似这种需求也在很多ppt兼职群(qq群搜索就可以查到)里能遇到,如果会python来自动批量操作ppt调整格式,那接单岂不是来者不拒? 为了给大家增加一个赚钱的小机会,行哥这里给大家分享一下python操作ppt的用法用法大纲

python excel sheet_人生苦短我学Python——Excel处理之快速创建多个Sheet并重命名-爱代码爱编程

自打Python环境准备好之后,就在跟着网上的菜鸟教程学习基本操作、基本概念。学习的过程比较乏味,因为暂时还没有成型的东西,除了感慨Python真神奇,可以打印出各种东西之外,还没能从Python中获利,即还没有真正用Python解决工作生活当中的实际问题。 此时,正巧碰到同事求助,他的第一个困惑是:需要在一个Excel中建若干个Sheet页,并且Shee

python爬取酒店信息_Python 爬虫练手项目—酒店信息爬取-爱代码爱编程

from bs4 import BeautifulSoup import requests import time import re url = 'http://search.qyer.com/hotel/89580_4.html' urls = ['http://search.qyer.com/hotel/89580_{}.html'

手把手教你用Python实现批量文件的压缩处理-爱代码爱编程

点击上方“Python爬虫与数据挖掘”,进行关注 回复“书籍”即可获赠Python从入门到进阶共10本电子书 今 日 鸡 汤 近乡情更怯,不敢问来人。 一、前言 大家好,我是崔艳飞。接到项目求助,需要对上千个文件夹中的文件进行压缩处理,并要删除源文件,只保留压缩后的压缩文件,数据量大,手动完成耗时耗力,用Python处理再合适不过了。

用Python调用CMD命令 批量转换Webp到Png-爱代码爱编程

背景 写了个小爬虫,爬了一堆图片回来,全都是webp格式的。 可我还在用着上古时代的AcdSee 3.2,一张张图片都拖到浏览器里去看也显得太傻了。 虽然我瘾大,可是人菜。 看了半天别的玩家写的各种奇奇怪怪的攻略,高人可以用powershell一句话搞定,我当然也知道powershell很好很强大,奈何我怎么改来改去在我的计算机上都跑不通。 最后只好还是