![]() |
1
1
我在这里找到了一半答案 https://blog.chezo.uno/livy-jupyter-notebook-sparkmagic-powerful-easy-notebook-for-data-scientist-a8b72345ea2d https://docs.microsoft.com/en-us/azure/hdinsight/spark/apache-spark-jupyter-notebook-kernels . 秘密是在计算单元中使用%%local magic,它允许我们访问安装的python模块 本地 (在docker容器中)。现在我只是不知道如何持久化在笔记本的“pyspark部分”创建的数据帧,所以它在“local”部分可用。 |
![]() |
Leonard · Pyspark:JSON到Pyspark数据帧 1 年前 |
![]() |
juamd · 顺序(k,<元组>)RDD 6 年前 |
![]() |
Gaurav Gupta · 如何加载多行记录的CSV文件? 6 年前 |
![]() |
Jared · 如何在本地模式下运行的pyspark中读取S3? 6 年前 |
![]() |
ka_boom · 在pyspark中链接多个groupBy 6 年前 |
![]() |
ds_user · 在apache spark中复制记录计数 6 年前 |
![]() |
ds_user · 结合类型和子类型的Apache Spark组 6 年前 |