以编程方式合并两个avro架构

时间:2016-04-10 11:56:58

标签: java avro

我有两个类似的模式,其中只有一个嵌套字段发生变化(在schema1中称为onefield,在schema2中称为anotherfield

schema1

{
    "type": "record",
    "name": "event",
    "namespace": "foo",
    "fields": [
        {
            "name": "metadata",
            "type": {
                "type": "record",
                "name": "event",
                "namespace": "foo.metadata",
                "fields": [
                    {
                        "name": "onefield",
                        "type": [
                            "null",
                            "string"
                        ],
                        "default": null
                    }
                ]
            },
            "default": null
        }
    ]
}

SCHEMA2

{
    "type": "record",
    "name": "event",
    "namespace": "foo",
    "fields": [
        {
            "name": "metadata",
            "type": {
                "type": "record",
                "name": "event",
                "namespace": "foo.metadata",
                "fields": [
                    {
                        "name": "anotherfield",
                        "type": [
                            "null",
                            "string"
                        ],
                        "default": null
                    }
                ]
            },
            "default": null
        }
    ]
}

我能够使用avro 1.8.0以编程方式合并两个模式:

Schema s1 = new Schema.Parser().parse(schema1);
Schema s2 = new Schema.Parser().parse(schema2);
Schema[] schemas = {s1, s2};

Schema mergedSchema = null;
for (Schema schema: schemas) {
    mergedSchema = AvroStorageUtils.mergeSchema(mergedSchema, schema);
}

并使用它将输入json转换为avro或json表示:

JsonAvroConverter converter = new JsonAvroConverter();
try {
    byte[] example = new String("{}").getBytes("UTF-8");
    byte[] avro = converter.convertToAvro(example, mergedSchema);
    byte[] json = converter.convertToJson(avro, mergedSchema);
    System.out.println(new String(json));
} catch (AvroConversionException e) {
    e.printStackTrace();
}

该代码显示预期输出:{"metadata":{"onefield":null,"anotherfield":null}}。问题是我无法看到合并的架构。如果我做一个简单的System.out.println(mergedSchema),我会得到以下异常:

Exception in thread "main" org.apache.avro.SchemaParseException: Can't redefine: merged schema (generated by AvroStorage).merged
    at org.apache.avro.Schema$Names.put(Schema.java:1127)
    at org.apache.avro.Schema$NamedSchema.writeNameRef(Schema.java:561)
    at org.apache.avro.Schema$RecordSchema.toJson(Schema.java:689)
    at org.apache.avro.Schema$RecordSchema.fieldsToJson(Schema.java:715)
    at org.apache.avro.Schema$RecordSchema.toJson(Schema.java:700)
    at org.apache.avro.Schema.toString(Schema.java:323)
    at org.apache.avro.Schema.toString(Schema.java:313)
    at java.lang.String.valueOf(String.java:2982)
    at java.lang.StringBuilder.append(StringBuilder.java:131)

我称之为avro不确定性原则:)。看起来avro能够使用合并模式,但在尝试将模式序列化为JSON时失败。合并使用更简单的模式,所以它听起来像avro 1.8.0中的一个错误。

您知道可能发生的事情或如何解决吗?任何解决方法(例如:替代Schema序列化程序)都是受欢迎的。

2 个答案:

答案 0 :(得分:1)

我在pig util类中发现了同样的问题......实际上这里有2个错误

  • AVRO允许使用无效架构
  • 通过GenericDatumWriter序列化数据
  • piggybank util类生成无效架构,因为它对所有合并字段使用相同的名称/命名空间(保留原始名称的实例)

这适用于更复杂的方案https://github.com/kite-sdk/kite/blob/master/kite-data/kite-data-core/src/main/java/org/kitesdk/data/spi/SchemaUtil.java#L511

    Schema mergedSchema = SchemaUtil.merge(s1, s2);

从您的示例中,我得到以下输出

{
  "type": "record",
  "name": "event",
  "namespace": "foo",
  "fields": [
    {
      "name": "metadata",
      "type": {
        "type": "record",
        "name": "event",
        "namespace": "foo.metadata",
        "fields": [
          {
            "name": "onefield",
            "type": [
              "null",
              "string"
            ],
            "default": null
          },
          {
            "name": "anotherfield",
            "type": [
              "null",
              "string"
            ],
            "default": null
          }
        ]
      },
      "default": null
    }
  ]
}

希望这会有助于其他人。

答案 1 :(得分:1)

Avro文件尚不支持合并架构功能。 但是,可以说如果您在一个目录中包含avro文件,而其中的avro文件具有多个架构,这些文件具有不同的架构,例如:/ demo,则可以通过spark using读取它。并提供一个主模式文件(即.avsc文件),因此spark将在内部读取该文件中的所有记录,如果有一个文件缺少列,则显示空值。

object AvroSchemaEvolution {
def main(args: Array[String]): Unit = {
val schema = new Schema.Parser().parse(new File("C:\\Users\\murtazaz\\Documents\\Avro_Schema_Evolution\\schema\\emp_inserted.avsc"))
val spark = SparkSession.builder().master("local").getOrCreate()
  val df = spark.read
.format("com.databricks.spark.avro").option("avroSchema", schema.toString)
.load("C:\\Users\\murtazaz\\Documents\\Avro_Schema_Evolution\\demo").show()
 }
}