国产成人AV无码一二三区,少女1到100集,国产精品久久久久精品综合紧,巜公妇之诱感肉欲HD在线播放

文章 > Python常见问题 > 怎么用python写spark

怎么用python写spark

头像

silencement

2019-11-21 09:41:222304浏览 · 0收藏 · 0评论

为什么要使用Python来写Spark

Python写spark我认为唯一的理由就是:你要做数据挖掘,AI相关的工作。因为很多做数挖的他们的基础语言都是python,他们如果重新学scala比较耗时,而且,python他的强大类库是他的优势,很多算法库只有python有。

Win本地编写代码调试

编辑器:PyCharm

Spark:1.6

Python:2.7

Win环境准备

Python的安装

解压python包,在环境变量里面配上bin的路径

Spark的安装

下载spark的bin文件,解压即可,在环境变量配置SPARK_HOME

要可以通过编辑器来安装,如pycharm,查找pyspark库安装即可

Hadoop安装

安装hadoop环境 。在win下面需要winutils.exe;在环境里面配置HADOOP_HOME 即可。

代码示例

# -*- coding: utf-8 -*-
from __future__ import print_function
from pyspark import *
import os
print(os.environ['SPARK_HOME'])
print(os.environ['HADOOP_HOME'])
if __name__ == '__main__':
    sc = SparkContext("local[8]")
    rdd = sc.parallelize("hello Pyspark world".split(" "))
    counts = rdd \
        .flatMap(lambda line: line) \
        .map(lambda word: (word, 1)) \
        .reduceByKey(lambda a, b: a + b) \
        .foreach(print)
    sc.stop

python学习网,大量的免费python学习视频,欢迎在线学习!

问题:

from pyspark import *

找不到pyspark。那你需要把spark的bin包下面的python的所有都拷贝到(可能需要解压py4j)

%PYTHON%\Lib\site-packages下面去。这样,你的编辑器才能找到。

或者:

配置你的编辑器的环境变量:

PYTHONPATH=F:\home\spark-1.6.0-bin-hadoop2.6\python;F:\python2.7\Lib\site-packages

使用spark-submit提交时用到其他类库 –py-files xxxx/xxxx.zip,xxxx.py。

关注

关注公众号,随时随地在线学习

本教程部分素材来源于网络,版权问题联系站长!

国产三级做爰在线播放| 禁忌4| 18款成品短视频APP下载量| 欧美大片PPT免费大全| 98在线高清免费观看电视剧狂飙| 《浴室吃奶2》无删减| 16岁小花妹妹CSGO| 男女做受A片AAAA| 陪游| 两个人轮流上24小时的班 | 国产精品黑料吃瓜网曝事件海角 | 妈妈的闺蜜| 1.《奶牛娘牧场》动漫| 没带置子让他吃了一天的药怎么办| 《老板娘2》完整版| 下面的小嘴又饿了| 东北娘们国语版免费播放| 韩国咬住奶头的乳三级| 男生把小困困放到女生困里视频| 欧美片《肉欲进入》| GOOGLE官网入口| (丰满的继牾2)理伦片在线观看 | 金瓶风月电影高清完整版| 摸腿吻戏| 伦理《少妇的滋味》完整版| 虫虫漫画免费漫画弹窗入口| 性感内衣女装| 有没有免费看片的软件| 麻豆免费无码AV在线播放| 小妹妹爱大棒棒免费观看电视剧一| 老师穿白色双开真丝旗袍怎么穿| 变硬最快的方法是什么| 少女与狗2在线观看免费版高清 | 风起云涌之情迷香江| 国精产品偷偷偷拍XXXX| 绝色儿媳在线观看免费版电视剧| 老公弄我一边干一边说粗话| 暴躁老阿姨与老年人的爱情与财运| 蜜桃浏览器| 《淫毛》在线观看免费| 共享女儿小诗1~10章的背景资.