从databricks存储库导入用户定义的python模块

时间:2019-02-08 17:20:07

标签: git pyspark databricks

我正在实现一个databricks模块,该模块集成了一些python代码以完成一些ETL清理功能。此代码由用户定义的模块分隔,每个模块都有其特定的任务。 databricks环境从databricks自身连接到git repo。

我的问题是:如果我将这些python文件导入到存储库中,如何将相同的模块导入到databricks笔记本中,从而利用databricks的源代码控制?

我知道导入模块的一种方法是将它们添加到datalake目录中,然后将其导入笔记本中,但是这样我将失去我真正需要的版本控制。

0 个答案:

没有答案
相关问题