洞察海量数据,你大可不必用尽洪荒之力!

通常,我们从真实世界中提取的数据往往具有多种形式,散乱无章。那么,我们如何能够从这些数据中获取有效洞察?针对这些缺失数据、非结构化数据,以及缺乏常规结构的数据,我们需要采用某些方法执行清理,从而确保和改进数据质量。

数据清理在数据库中有着悠久的历史,是提取、转换、加载 (ETL) 过程中非常关键一步。

1.提取:ETL 通常用在数据仓库中,这里的数据提取自一个或多个来源

2.转换:将数据转换为适当的格式和结构,包括执行数据清理

3.加载:将数据加载到最终目标位置,比如一个数据库或文件

 数据清理始于数据解析,也即从数据文件获取每个观察值并提取每个独立元素。如果记录相似(元素数量相同、类型相似等),则可以轻松地确定解析方法。

 今天我们就来一起探索处理实际数据的一些重要问题,以及可以应用的方法。并演示如何开发一个能够执行数据验证和概要分析的简单实用程序。

点击阅读原文查看完整文章,处理数据自有一手,精确洞察不再烦忧!

猜你喜欢

转载自my.oschina.net/ibmdw/blog/1620231