Spark 及 Hadoop 开发员培训 <含北京站、上海站、深圳站>

学习如何将数据导入到 Apache Hadoop 机群并使用 Spark、Hive、Flume、Sqoop、Impala 及其他 Hadoop 生态系统工具对数据进行各种操作和处理分析   在为期四天的培训中,学员将学习关键概念和掌握使用最新技术和工具将数据采集到 Hadoop 机群并进行处理。通过学习掌握诸如 Spark、Hive、Flume、Sqoop 和 Impala 这样的 Hadoop 生态系统工具和技术,Hadoop 开发员将具备解决实际大数据问题和挑战的能力。本课程包含了大量的实操及编程练习来帮助学员熟悉并掌握各种工具,并最终获得在实际工作中针对特定的问题或场景来选取最佳解决工具或技术的能力。 “通过 Cloudera 的培训,让我们在使用大数据核心平台 Hadoop 方面,能把握现在、更能信心百倍地在未来面对和赢得更多的大数据挑战。” 培训内容 通过讲师在课堂上的讲解,以及实操练习,学员将学习 Apache Spark 及如何将其集成到整个 Hadoop 生态系统中去,包括以下内容: 在 Hadoop 机群上进行分布式存储和处理数据。 通在 Hadoop 机群上编写、配置和部署 Apache Spark 应用。 使用 Spark shell 进行交互式数据分析。 使用 Spark SQL 查询处理结构化数据。 使用 Spark Streaming 处理流式数据。 使用 Flume 和 Kafka 为 Spark Streaming 采集流式数据。 培训对象及学员基础 本课程适合于具有编程经验的开发员及工程师。无需 Apache Hadoop 基础 培训内容中对 Apache Spark 的介绍所涉及的代码及练习使用 Scala 和    Python,因此需至少掌握这两个编程语言中的一种。 需熟练掌握 Linux 命令行。 对 SQL 有基本了解。 本次培训含北京站、上海站、深圳站,有意参与培训请移步至活动家进行报名; 有意参会请咨询咨询:   联系人:活动家   联系方式:18516272025

0 个评论

要回复文章请先登录注册