国产成人AV无码一二三区,少女1到100集,国产精品久久久久精品综合紧,巜公妇之诱感肉欲HD在线播放

文章 > Python常见问题 > 怎么用python写spark

怎么用python写spark

头像

silencement

2019-11-21 09:41:222304浏览 · 0收藏 · 0评论

为什么要使用Python来写Spark

Python写spark我认为唯一的理由就是:你要做数据挖掘,AI相关的工作。因为很多做数挖的他们的基础语言都是python,他们如果重新学scala比较耗时,而且,python他的强大类库是他的优势,很多算法库只有python有。

Win本地编写代码调试

编辑器:PyCharm

Spark:1.6

Python:2.7

Win环境准备

Python的安装

解压python包,在环境变量里面配上bin的路径

Spark的安装

下载spark的bin文件,解压即可,在环境变量配置SPARK_HOME

要可以通过编辑器来安装,如pycharm,查找pyspark库安装即可

Hadoop安装

安装hadoop环境 。在win下面需要winutils.exe;在环境里面配置HADOOP_HOME 即可。

代码示例

# -*- coding: utf-8 -*-
from __future__ import print_function
from pyspark import *
import os
print(os.environ['SPARK_HOME'])
print(os.environ['HADOOP_HOME'])
if __name__ == '__main__':
    sc = SparkContext("local[8]")
    rdd = sc.parallelize("hello Pyspark world".split(" "))
    counts = rdd \
        .flatMap(lambda line: line) \
        .map(lambda word: (word, 1)) \
        .reduceByKey(lambda a, b: a + b) \
        .foreach(print)
    sc.stop

python学习网,大量的免费python学习视频,欢迎在线学习!

问题:

from pyspark import *

找不到pyspark。那你需要把spark的bin包下面的python的所有都拷贝到(可能需要解压py4j)

%PYTHON%\Lib\site-packages下面去。这样,你的编辑器才能找到。

或者:

配置你的编辑器的环境变量:

PYTHONPATH=F:\home\spark-1.6.0-bin-hadoop2.6\python;F:\python2.7\Lib\site-packages

使用spark-submit提交时用到其他类库 –py-files xxxx/xxxx.zip,xxxx.py。

关注

关注公众号,随时随地在线学习

本教程部分素材来源于网络,版权问题联系站长!

亚洲精品国偷自产久色| 强伦女教师2:伦理| BOBO浏览器| 坤坤寒入桃子里电视剧| 香蕉漫画免费读漫画网下拉式| 免费B站看大片真人电视剧| 免费B站看大片真人电视剧| 《特殊的家政服务》| 《医务室的小秘密》第一季免费观..| 《再来一次好吗》动漫| 打开B站看片| 国产日产亚洲系列最新版本的特点| 欧美IPHONEXR| WWW.17C嫩嫩草色视频蜜桃| 爱痴癫| 爸爸吃女儿奶奶高情商回复| 男同短片| 免费观看已满十八岁电视剧彩漫画| 换夫妻群交杂交| 日本护士裸体做爰视频| 中国时装秀视频| 《厨房2》韩剧| 少女たちよ观看免费高清电视剧| 美国大片免费观看2022年上映| 暴躁少女零九CSGO| 小妇人在线观看免费版电视剧| 双乳压在落地窗前做H| 阴部按摩出水太尴尬怎么办| 班长哭了能不能再抠游戏里面的钱| 器材室轮-J-(4)对着镜子| 妈妈的新男友| 扌桑达鬲的日| (NP、高H、纯肉、真空)| 姐姐片多多免费高清电视剧| 亚州精品无码A片毛片吸奶视频| 潜规则| 妻子的秘密韩剧大全免费| 异界茅山学徒| 亚州精品无码A片毛片吸奶视频| 欧美RAPPER高清头像| 老公拿狗给我配