微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

最有用的功能都是对NLTK朴素贝叶斯分类器的正面评价

如何解决最有用的功能都是对NLTK朴素贝叶斯分类器的正面评价

当我完成代码后,

training_set = featuresets[:500]
testing_set = featuresets[500:]

classifier = nltk.NaiveBayesClassifier.train(training_set)
print("Original Naives Bayes Classifier Accuracy Percent:",(nltk.classify.accuracy(classifier,testing_set))*100)
classifier.show_most_informative_features(20)

出现的几乎所有功能都是pos:neg。

我的培训集有33%的阳性病例。然后,有了这么多的肯定特征,如果我尝试将分类器应用于测试集,我将得到66%的肯定句子,而不是33%。

我尝试将分类器应用于测试集,我也得到了66%的阳性病例,而不是33%。 奇怪的是,因为如果我在testing_set上运行分类器的准确性,则可以计算出很高的准确性(这是可以预测的),但是当我尝试将其应用于testing_set时,它将返回很多归为肯定性的否定语句。

为了获得预期的句子数量,我正在这样做(请参见下文)。我不知道上面是否有编码错误

poss = 0
negg = 0
for custom_tweet in df.text:
    custom_tokens = word_tokenize(custom_tweet,language='portuguese')
    x = classifier.classify(dict([token,True] for token in custom_tokens))
    if x=='pos':
        poss +=1
    elif x=='neg':
        negg +=1
    
print(poss)
print(negg)

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。