• 在线客服

  • 扫描二维码
    下载博学谷APP

  • 扫描二维码
    关注博学谷微信公众号

  • 意见反馈

原创 大数据核心技术:Hadoop与spark

发布时间:2019-06-26 17:59:29 浏览 7045 来源:博学谷资讯 作者:枫调

      大数据学习需要掌握很多技术知识点,包括LinuxZookeeperHadoopRedisHDFSMapReduceHivelmpalaHueOozieStormKafkaSparkScalaSparkSQLHbaseFlink、机器学习等。今天主要和大家分享一下Hadoopspark技术。

     

    大数据核心技术:Hadoop与spark

     

      Hadoop是什么?

     

      Hadoop2006年开始成为雅虎项目,随后晋升为顶级Apache开源项目。它是一种通用的分布式系统基础架构,具有多个组件:Hadoop分布式文件系统(HDFS),它将文件以Hadoop本机格式存储并在集群中并行化; YARN,协调应用程序运行时的调度程序; MapReduce,这是实际并行处理数据的算法。Hadoop使用Java编程语言构建,其上的应用程序也可以使用其他语言编写。用一个Thrift客户端,用户可以编写MapReduce或者Python代码。

      除了这些基本组件外,Hadoop还包括Sqoop,它将关系数据移入HDFS; Hive,一种类似SQL的接口,允许用户在HDFS上运行查询; Mahout,机器学习。除了将HDFS用于文件存储之外,Hadoop现在还可以配置使用S3 bucketsAzure blob作为输入。

      它可以在Apache发行版开源,也可以用Cloudera(规模和范围最大的Hadoop供应商)MapRHortonWorks等厂商提供。

     

      Spark是什么?

     

      Spark是一个较新的项目,在2012年诞生在加州大学伯克利分校的AMPLab。它也是一个顶级Apache项目,专注于在集群中并行处理数据,一大区别在于它在内存中运行。

      类似于Hadoop读取和写入文件到HDFS的概念,Spark使用RDD(弹性分布式数据集)处理RAM中的数据。Spark以独立模式运行,Hadoop集群可用作数据源,也可与Mesos一起运行。在后一种情况下,Mesos主站将取代Spark主站或YARN以进行调度。

      Spark是围绕Spark Core构建的,Spark Core是驱动调度,优化和RDD抽象的引擎,并将Spark连接到正确的文件系统(HDFSS3RDBMElasticsearch)Spark Core上还运行了几个库,包括Spark SQL,允许用户在分布式数据集上运行类似SQL的命令,用于机器学习的MLLib,用于解决图形问题的GraphX以及允许输入连续流式日志数据的Streaming

      Spark有几个API。原始界面是用Scala编写的,并且由于大量数据科学家的使用,还添加了PythonR接口。Java是编写Spark作业的另一种选择。

      Databricks是由Spark创始人Matei Zaharia创立的公司,现在负责 Spark开发并为客户提供Spark分销。

     

      现在大数据专业在各个领域不断得到应用,不仅仅是数据为企业提供了发展方向的支撑,同时对于优势资源配置以及降低生产成本都有非常明显的指导作用。而对于求知者来说,学习大数据就是在位自己未来的职业发展中加分。目前想进入大数据行业,一般都是通过参加培训的方式,而对于在职的人群,脱产学习势必会有很大的压力,所以大家可以考虑通过博学谷在线教育平台学习大数据技术。想了解博学谷的课程,可以直接与博学谷平台老师沟通。

    申请免费试学名额    

在职想转行提升,担心学不会?根据个人情况规划学习路线,闯关式自适应学习模式保证学习效果
讲师一对一辅导,在线答疑解惑,指导就业!

上一篇: 大数据思维到底是什么? 下一篇: 大数据工程师面试时需要注意的那些致命判断题

相关推荐 更多

热门文章

  • 前端是什么
  • 前端开发的工作职责
  • 前端开发需要会什么?先掌握这三大核心关键技术
  • 前端开发的工作方向有哪些?
  • 简历加分-4步写出HR想要的简历
  • 程序员如何突击面试?两大招带你拿下面试官
  • 程序员面试技巧
  • 架构师的厉害之处竟然是这……
  • 架构师书籍推荐
  • 懂了这些,才能成为架构师
  • 查看更多

扫描二维码,了解更多信息

博学谷二维码