文档情感幅度!= sum(句子幅度)

时间:2019-07-09 03:40:21

标签: google-cloud-nl magnitude

我目前正在使用Google Cloud NL API进行一些测试,以分析新闻报道。最初,我对文档大小的计算方式感到好奇,然后在这里进行搜索

documentation

其中提到的是构成句子大小的总和。

在我自己的测试中,我发现情况并非如此。我有什么事做错了吗?


为清楚起见,我在从conda-forge获得的google-cloud-language的conda环境中使用正在运行的Python 3.7.3。

document =types.Document(content = str, type = enums.Document.Type.PLAIN_TEXT)
sentiment = client.analyze_sentiment(document=document)

sentence_sents = sentiment.sentences
test_mag = 0
for sent_obj in sentence_sents:
     test_mag += sent_obj.sentiment.magnitude

print(sentiment.document_sentiment.magnitude)
print(test_mag)

1 个答案:

答案 0 :(得分:0)

在另一个线程中,有时可能只是绝对总和,但并非总是如此。

Google Natural Language Sentiment Analysis Aggregate Scores

  

“聚合的工作方式是将输入文本分解为较小的部分(通常为ngram),这很可能是文档讨论聚合的原因,但是,聚合不是简单的加法,不能总结个人情绪以获得每个实体的总分。”

我认为分数和幅度计算就是这种情况。