代码编织梦想

未来就业城市选择问题(python 数据分析,数据可视化)(文档+代码+数据+PPT+注释)-爱代码爱编程

未来就业城市选择问题分析项目文档 目录 目录 2 1数据来源 3 2理论基础 3 3算法流程 3 3.1中国城市资本流动探索 3 3.1.1数据预处理 3 3.1.2查看全国城市控股型投资关系 4 3.1.3 2013-2016年全国跨城市资本流动情况 4 3.1.4 深度探索跨城市资本流动 4 3.2全国各省市平均房价问题研究 4 4实验结果 5 4.

python的常用函数-爱代码爱编程

print()函数:打印字符串 raw_input()函数:从用户键盘捕获字符 len()函数:计算字符长度 format(12.3654,‘6.2f’/‘0.3%’)函数:实现格式化输出 type()函数:查询对象的类型 int()函数、float()函数、str()函数等:类型的转化函数 id()函数:获取对象的内存地址 help()函

2017年-2020年按月计算节假日与工作日-爱代码爱编程

1.引入相关的包 from datetime import date, datetime, timedelta import calendar import pandas as pd from workalendar.asia import China from dateutil import rrule 2.节假日计算 1.由于节假日包中没有20

关于身份证校验算法的一些想法-爱代码爱编程

身份证校验这东西相信只要是涉及到录入身份证这环节都是要求加上校验。校验分两种,一种是接入公安信息库,这样子得出来的结果肯定是非常准确的,另一种是通过位数+尾数+出生年月日校验,得出一个能满足绝大多数用户的校验。 可能看完开头这一段话就有人反驳,为啥不做地区校验。如果你提到地区校验那说明你还是对身份证的生成有一定的了解的,但是也不是了解的很透,接下来我就讲

pandas--基础知识: pandas 数据统计函数-爱代码爱编程

pandas 的数据统计函数 1.增长率pct_change 序列(Series)、数据框(DataFrame)和Panel(面板)都有pct_change方法来计算增长率(需要先使用fill_method来填充空值)df.pct_change(periods=1, fill_method=‘pad’, limit=None, freq=None, *

python训练集数据预处理手段-爱代码爱编程

首先数据格式是DataFrame 一、填充缺失值 1.在填充之前可以查看哪些数据缺失和缺失的个数 # 查看缺失值 data_train.isnull().sum() 2.一般特征值中用平均值来填充,而标签中用众数来填充,numerical_fea是你要填充的列名,在DataFrame中一般是字符串格式,如[‘grade’,‘subGrade’]

数据分析思维与实战(课程笔记)-第6讲(电商数据分析:京东App的详细产品分析)-爱代码爱编程

第六讲 01 如何看待京东App 1、引流(场) 首页作为最大的带量位,分发效率怎么评估? CTR:CTR=点击UV/曝光UV,反映用户点击欲望的指标 点击UV:每天有多少用户点击进入到页面曝光UV:每天有多少用户看到了页面人均访问页面数:总访问页面数(PV)/总访问UV 总反问页面数PV:点击所有页面的次数总和是多少总访问UV:点击所有页面的人

数据分析(二)之matplotlib绘制其他图形-爱代码爱编程

数据分析学习线路图 2、matplotlib绘制散点图 假设通过爬虫你获取到了北京2016年3,10月份每天白天的最高气温(分别位于列表a,b),那么此时如何寻找出气温和随时间(天)变化的某种规律? a = [11,17,16,11,12,11,12,6,6,7,8,9,12,15,14,17,18,21,16,17,20,14,15,15,15,

hive的四种排序以及窗口函数的使用-爱代码爱编程

1.order by :对数据进行全局排序,因此只有一个Reducer(多个Reducer无法保证全局有序),然而只有一个Reducer,会导致当输入规模较大时,消耗较长的计算时间2.sort by :局部排序, 一般要设置下reduces个数,默认是-1,当个数为1,相当于order by,一般设置为大于1,保证每个reducer的输出有序,并不保证全局

我爬取了爬虫岗位薪资,分析后发现爬虫真香!-爱代码爱编程

闲着无事逛逛招聘网站,无意看到了爬虫岗位的薪资,发现真香,今天决定爬取下来并进行分析 PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取 python免费学习资料以及群交流解答点击即可加入   首先,确定目标网站: https://jobs.51job.com/pachongkaifa 1.开始 打开pycharm,新建文件

我爬取了爬虫岗位薪资,分析后发现爬虫真香!-爱代码爱编程

闲着无事逛逛招聘网站,无意看到了爬虫岗位的薪资,发现真香,今天决定爬取下来并进行分析 PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取 python免费学习资料以及群交流解答点击即可加入   首先,确定目标网站: https://jobs.51job.com/pachongkaifa 1.开始 打开pycharm,新建文件

南方人过冬靠的是一身正气?用Python分析全网取暖器数据-爱代码爱编程

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。 以下文章来源于CDA数据分析师 ,作者:CDA数据分析师   前言 如果说冬天对北方人来说只是一个季节,而对南方人来说是一场“渡劫”。北方的冷是干冷,物理攻击,多穿一点就好了。而且室内有暖气,在室内可以穿着短袖吃冰棍。   而南方的冷是

Pixelmator Pro 2.0:预设滤镜和超 200 款预设样式重磅登场-爱代码爱编程

随着 macOS Big Sur 的发布推送,越来越多的应用完成了新系统新特性的适配更新。就在最近,macOS 平台专业的图像编辑软件 Pixelmator Pro,迎来了 2.0 版本的大更新。新版本完成了对搭载 M1 芯片 Mac 的支持,重新设计了应用界面与图标,更加贴近 macOS Big Sur,同时带来了超 200 款预设、工作区布局等多种功能

Python数据分析之使用pandas-datareader获取国家经济信息进行分析-爱代码爱编程

pandas-datareader背景介绍 当熟悉了Pandas的两个主要数据结构:Series和DataFrame之后,我们就可以使用pandas-datareader进行金融财经数据的导入和初步分析了。pandas-datareader是基于Python的专门从一系列的公开在线数据库获取数据的工具库,该接口在urllib3库基础上实现了以客户端身份访

go语言http调用Tushare财经数据包-爱代码爱编程

go语言http调用Tushare财经数据包 Tushare平台介绍 Tushare平台网址 https://tushare.pro/document/1,网址上就有下载安装以及数据获取的方式。Tushare Pro提供了包括股票、指数、基金、期货、数字货币在内的各类资产交易行情的分钟数据。免费获取,数据准确,适合量化投资分析师(Quant),对金融市

数据分析师是否有前途-爱代码爱编程

再过不久,我在房地产领域的数据分析工作,就要满3年了。对于每一个职场人来说,3年是个坎,能力需要再次升级,才能让自己走得更顺畅。我自己也深知自己这两年埋身于工作中,忽略了硬件技能的锻炼和提升,所以,趁最近项目告一段落的这段时间,好好做一次沉淀,并做一些新技能提升。也趁这个机会,给那些找我问“数据分析师是否有前途”的同仁一个正面回复。 话不多说,下面就先给

Numpy使用基础-爱代码爱编程

Numpy使用 1 Numpy的核心array对象以及创建array的方法 1.1 array本身的属性 **shape:**返回一个元组,表示array的维度**ndim:**一个数字,表示array维度的数目**size:**一个数字,表示array中所有数据元素的数目**dtype:**array中元素的数据格式1.2 创建array的方法

如何利用会议软件快速获取会议数据,精准完成会议复盘-爱代码爱编程

会议复盘是主办方或会议管理人员举办一场会议后最重要的环节。通过复盘可以发现会议管理中的各种问题,以优化会议管理模式,完善会议管理体系。而在复盘中最重要的就是会议数据的支撑,准确的会议数据能够直观得反应出会议的各个流程中发生的各种情况,以数据为导向的会议复盘才能有的放矢的解决会议的各种问题。 但现实中会议数据往往是最混乱的一环,在传统的会议管理模式中,

r 语言 处理栅格数据-爱代码爱编程

r 语言 处理栅格数据 作为新手,记录自己学到的一些东西,也希望能对需要的人有稍许帮助 常用的包 raster #处理栅格数据rasterVis #栅格数据可视化RColorBrewer #颜色设置ncdf4 #nc数据的读取常用的数据类型 tiffnc数据导入和简单的可视化 tiff数据读取 读取一个tiff文件 raster() 函

入门小远学爬虫(二)(七)简单GET型网页爬虫实战——“前程无忧”爬虫岗位信息的爬取之代码的模块化重构和完善-爱代码爱编程

这是本系列第一个实战项目的第七节,与前六节相关的内容请访问小远的主页。 (上一节的链接) 上一节我们已经对前程无忧爬虫岗位中前十页的工作的详细信息经处理后存入Excel表,具体效果请参见上一节的链接 原本打算这一篇文章做画图的,但是小远另一个关于pyecharts系列的文章还没写完(刚刚写到柱状图),而我的打算是将这个项目与那一个系列的文章串起来