大数据是如何处理数据的?仅需4步即可轻松搞定

随着互联网高速发展,大数据变得尤为吃香,但是很多人对大数据是如何处理数据表示不理解。其实有许多特定的大数据处理方法,但是根据数据分析师们的长期实践,总结了一个比较普通且适用的大数据处理过程,该过程能够帮助有需求的人理顺大数据的处理。整个处理流程可以概括为四个步骤,即采集,导入和预处理,统计和分析,然后是数据挖掘。


 大数据处理之一:采集

大数据的采集是指利用多个数据库来接收发自客户端(Web、App或者传感器形式等)的数据,并且用户可以通过这些数据库来进行简单的查询和处理工作。比如,电商会使用传统的关系型数据库MySQL和Oracle等来存储每一笔事务数据,除此之外,Redis和MongoDB这样的NoSQL数据库也常用于数据的采集。

在大数据的采集过程中,其主要特点和挑战是并发数高,因为同时有可能会有成千上万的用户来进行访问和操作,比如火车票售票网站和淘宝,它们并发的访问量在峰值时达到上百万,所以需要在采集端部署大量数据库才能支撑。并且如何在这些数据库之间进行负载均衡和分片的确是需要深入的思考和设计。

 大数据处理之二:导入/预处理

虽然采集端本身会有很多数据库,但是如果要对这些海量数据进行有效的分析,还是应该将这些来自前端的数据导入到一个集中的大型分布式数据库,或者分布式存储集群,并且可以在导入基础上做一些简单的清洗和预处理工作。也有一些用户会在导入时使用来自Twitter的Storm来对数据进行流式计算,来满足部分业务的实时计算需求。

导入与预处理过程的特点和挑战主要是导入的数据量大,每秒钟的导入量经常会达到百兆,甚至千兆级别。

 大数据处理之三:统计/分析

统计与分析主要利用分布式数据库,或者分布式计算集群来对存储于其内的海量数据进行普通的分析和分类汇总等,以满足大多数常见的分析需求,在这方面,一些实时性需求会用到EMC的GreenPlum、Oracle的Exadata,以及基于MySQL的列式存储Infobright等,而一些批处理,或者基于半结构化数据的需求可以使用Hadoop。

统计与分析这部分的主要特点和挑战是分析涉及的数据量大,其对系统资源,特别是I/O会有极大的占用。

 大数据处理之四:挖掘

与前面统计和分析过程不同的是,数据挖掘一般没有什么预先设定好的主题,主要是在现有数据上面进行基于各种算法的计算,从而起到预测(Predict)的效果,从而实现一些高级别数据分析的需求。比较典型算法有用于聚类的Kmeans、用于统计学习的SVM和用于分类的NaiveBayes,主要使用的工具有Hadoop的Mahout等。该过程的特点和挑战主要是用于挖掘的算法很复杂,并且计算涉及的数据量和计算量都很大,常用数据挖掘算法都以单线程为主。

以上就是关于大数据是如何处理数据的全部内容介绍,想了解更多关于大数据高性能计算的信息,请继续关注。

大数据是如何处理数据的?仅需4步即可轻松搞定_业界动态_行业云
74
10
0
27

相关资讯

  1. 1、《悠悠恋物语》世界树旅人梦想的旅程现在就出发4185
  2. 2、《武媚娘传奇》情人版惊艳亮相时装让你美美哒1576
  3. 3、《心动劲舞团》首部资料片即将上线High翻整个夏天3999
  4. 4、《美杜莎》勇气与正义的化身独臂战神提尔揭秘5010
  5. 5、宇宙之力成就超凡《雪鹰领主II》福利活动惊呆众高手1996
  6. 6、《生死狙击》手游弱点击破全新模式开启889
  7. 7、遗失的宝藏《权力与荣耀》新版火热开启1609
  8. 8、料理次元花泽香菜等著名声优齐聚玉子烧CV花泽香菜4326
  9. 9、三家归晋《朕的江山》“英雄盖世”晋武将曝光3508
  10. 10、三国之刃猎侠怎么玩猎侠技巧连招详解4644
全部评论(0)
我也有话说
0
收藏
点赞
顶部