如何在azure流分析中有效地将压缩的json数据推送到azure事件中心和proccess?

时间:2017-11-10 09:03:31

标签: json azure-eventhub azure-stream-analytics

我们有一个后端应用程序,必须将遥测数据发送到事件中心。所有数据都必须序列化为JSON并进行压缩。

我们是否应该将所有序列化对象收集到一个换行符分隔的JSON中,或者最好为每个对象使用一个EventData包装并将其作为批处理发送?使用换行符分隔的json可能会更好地压缩。但是ASA能够处理它吗?

1 个答案:

答案 0 :(得分:2)

Asa支持gzip和deflate压缩。每个eventhub消息最多可包含256 kb,包括元数据。在处理方面,每条消息都有一些开销。因此,对于相同数量的记录,较少数量的eventhub消息更好。但是,这通常意味着发送端的一些缓冲。根据您对发送方的总体延迟要求和内存占用要求,您应该使用压缩将多条记录批处理到每条eventhub消息中。

相关问题