#-*-coding:UTF-8-*-
from pyspark import SparkConf,SparkContext
import time
class Spark05Marager(object):
def __init__(self,master,app_name):
'''
构造函数
:param master: master
:param app_name: appname
'''
self.__master=master
self.__app_Name=app_name
self.__sc=self.__createSc()
def __createSc(self):
'''
创建连接上下文
:return: 返回连接上下文
'''
try:
conf=SparkConf().setMaster(self.__master).setAppName(self.__app_Name)
sc=SparkContext(conf=conf)
return sc
except Exception as e:
return None
################################以下是学习算子函数##################################################################
def my_map(self):
'''
map 将一个集合转换成新集合
:return:
'''
data=[1,2,3,4,5,6,7,8,9]
rdd1=self.__sc.parallelize(data)
rdd2=rdd1.map(lambda x:x+1)
python 使用spark 的算子函数
最新推荐文章于 2024-10-31 19:28:31 发布