Home

Awesome

COVID-19-2019-nCoV-Infection-Data-cleaning-

针对新冠病毒疫情数据的清洗脚本和清洗后的数据。 在原有基础上增加对全世界各国的数据处理。

源数据说明

源数据使用 https://github.com/BlankerLhttps://github.com/BlankerL/DXY-COVID-19-Data/blob/master/csv/DXYArea.csv 其定时从丁香园网站抓取的原始各地区上报数据

感谢 BlankerL 的工作

原始数据格式如下<br/>

continentNamecontinentEnglishNamecountryNameountryEnglishNameprovinceNameprovinceEnglishNameprovince_zipCodeprovince_confirmedCountprovince_suspectedCountprovince_curedCountprovince_deadCountupdateTimecityNamecityEnglishNamecity_zipCodecity_confirmedCountcity_suspectedCountcity_curedCountcity_deadCount
亚洲Asia中国China重庆市Chongqing500000573032862020-02-23 07:18:21渝中区Yuzhong District500103200150
欧洲Europe卢森堡Luxembourg卢森堡Luxembourg9610043350042020-03-20 12:33:45NANANANANANANA

针对数据的改进:<br/> 1.原始数据每天都会多次抓取数据,同一个地区每天存在多条记录,因为原始统计数据并不是连续时效性的,各地区并不是按小时的时间段发布,因此每天只需要一条数据<br/> 2.源数据不能直观的看出中国的累计数量,只能看出各个省份的信息。 因此需要对中国与其他国家数据分开处理,通过累加各个省份的人数来得到中国的累计信息。其中境外输入数据也包含在中国的累计信息当中。<br/>

脚本说明

说明:各地区数据质量不同,同时存在后面修正前期数据,进行核销的处理,因此有时候当天数据会比前一天还少,新增数据为负

Data说明

data 目录存放了清洗出的数据。<br/> nCov_china_0312 是3月12日中国的数据。<br/> nCov_world_0516 是5月16日全世界的数据。<br/> 输出数据格式如下

国家确诊治愈死亡日期
阿曼19202020-03-13

2020.2.16 cz

------ 2020.02.18 22:00 更新脚本和数据 ---------

由于原始数据有一些缺陷,导致之前计算新增数据时存在不准确,新增数据和累计数据对不齐得问题

这两天修改脚本,增加了对原始数据不完整的问题进行动态修正,基本解决了数据的问题

同时这两天原始数据质量也在提升

今天更新了脚本,同时更新了我清洗后的数据,以及excel表格,excel表格现在调整为修改原始数据表单后,所有图表和数据可动态更新,数据表单更新后,只要对数据透视表的分析菜单手动操作一次全部刷新即可

------ 2020.02.24 22:00 更新脚本和数据 ---------

excel文件增加了全国及湖北疑似病例的数据,这个数据是手动收集,原始数据没有

脚本增加了直接数据写入excel文件的代码,我设置了开关,但现在将其屏蔽了,因为发现用py库操作excel文件,数据是正确的,但有些图表样式会丢失

借这个项目也熟悉了PY的数据分析方法,后续可能考虑尝试透视图及图表也用python脚本来做

------ 2020.02.29 22:00 更新数据 ---------

最近excel文件中增加了一些手动维护的数据,湖北省,武汉市,全国的疑似数据,武汉市内各区的数据。并做了预测模型

------ 2020.03.19 12:00 更新脚本 ---------

原始数据格式变化,增加了国外数据,导致城市字段出现空值。调整脚本后可以处理,但是本脚本仅处理中国数据。 海外数据的渠道来源很多,源数据中的海外数据其实信息很少,老实说没必要加入海外数据,或者另外做一个文件才好。

格式变化后,源数据膨胀很多,建议运行脚本处理前删除不必要的列,仅保留 provinceName,cityName,province_confirmedCount,province_curedCount,province_deadCount,city_confirmedCount,city_curedCount,city_deadCount,updateTime
这些字段,处理速度可以快不少

数据下载说明

由于raw.githubusercontent.com 被DNS污染,部分地区不能下载。大家可以试试我的百度云链接,数据更新到5月16号。 链接:https://pan.baidu.com/s/1QRaTV1OCTDDpLtuZ3JDtBA 提取码:u2d1

-----------2020.06.01 --------------

合并了 tiffanyXiaoqing 提交的修改,支持世界数据筛选脚本