列出pyspark

时间:2017-03-01 19:02:27

标签: apache-spark pyspark

我目前正在使用pySpark控制台来玩Spark,我想知道是否有办法列出我定义的所有函数?

目前我被迫一直向上滚动到函数的定义,如果你有大量的输出要滚动,这可能很乏味。

非常感谢你的帮助!

1 个答案:

答案 0 :(得分:0)

保持工作区清洁更有意义,但如果你真的需要这样的东西,你可以过滤当前范围内的变量:

[k for (k, v) in globals().items() if (
    callable(v) and  # function or callable object
    getattr(v, "__module__", None) == "__main__" and  # defined in __main__
    not k.startswith("_")  # not hidden
)]