返回首页
当前位置: 主页 > 编程语言 > Python教程 >

讨论PySpark

时间:2020-03-31 10:34来源:电脑教程学习网 www.etwiki.cn 编辑:小山哥

Apache Spark用Scala编程语言编写。为了支持带有Spark的Python,Apache Spark社区发布了一个工具PySpark。使用PySpark,您还可以使用Python编程语言来处理RDD。因为有了一个叫做Py4j的库,他们才能够实现这一目标。这是一个入门教程,涵盖了数据驱动文档的基础知识,并说明了如何处理其各种组件和子组件。

 
 上一页  打印页面

------分隔线----------------------------
标签(Tag):
------分隔线----------------------------
推荐内容
  • PySpark-MLlib

    Apache Spark提供了一个称为 MLlib 的机器学习API 。 PySpark也具有Python的这种机器...

  • PySpark-SparkFiles

    在Apache Spark中,可以使用 sc.addFile (sc是默认的SparkContext) 上载文件,并使...

  • PySpark-SparkContext

    SparkContext是任何Spark功能的入口点。 当我们运行任何Spark应用程序时,将启动一个...

  • PySpark-简介

    在本章中,我们将熟悉Apache Spark是什么以及PySpark是如何开发的。 Spark 概述 Apach...

  • PySpark教程

    Apache Spark用Scala编程语言编写。 为了通过Spark支持Python,Apache Spark社区发布...

  • 基于日志的工件调查

    到目前为止,我们已经看到了如何使用Python在Windows中获取工件。 在本章中,让我们学...

猜你感兴趣