pyspark map,reduce受信パラメータ


sparkの公式ドキュメントを表示すると、map、reduceの方法はいずれも、1つのパラメータ(map)または2つのパラメータ(reduce)を固定するように指定できます.
今仕事は発見して、多くパラメータをmapに代入して、reduceの方法の中で.
調べてみると、以下の方法が見つかりました.
まず関数を定義します.
def func(a, extra_para):
    k =  a + extra_para
    return k

そしてmapの時:
rdd = rd.map(lambda row:func(1,2))

これによりmap,reduceに別のパラメータを代入できます
参照url:
http://stackoverflow.com/questions/34087578/how-to-pass-additional-parameters-to-user-defined-methods-in-pyspark-for-filter