我有带有情绪评分的词典,我想从标记化的推文中找到这些词并添加评分

I have lexicon with sentiment score, I want to find these words from a tokenised tweets and add the score

Keyword .   Score
fabulous    7.526

excellent   7.247

superb  7.199

alert   7.099

drop    6.922


#Tokenized tweets below

["b'just", 'saw', 'amazon', 'ticwatch', 'pro', '4g/lte', 'smartwatch', 'dual', 'displa', '...', 'mobvoi', '299.00']

["b'amazon", 'pricedrop', 'deal', '\nprice', 'drop', 'alert', 'camelbak', 'eddy', 'kids', 'vacuum', 'insulated', 'stainless', 'steel', 'bottle', '12', 'oz', 'retro', 'floral\navg', 'price', '16.00\nnew', 'price', '12.17\nprice', 'drop', '23.94', '\nURL']

对于每个列表,我想查看与关键字匹配的分数总和 例如

Tweet 1 - 12.22

Tweet 2 - 7

有没有图书馆可以让我找到这样的词?感谢这方面的任何帮助

如果你有关键字和分数的数据框,你可以使用 zip 函数作为

list_ = list(df['keyword'],df['score']) 
list_ = [('fabulous',7.526),('excellent',7.247), ('super',7.199),('alert',7.099),('drop',6.922)]
tweet_token = [['fabulous', 'excellent','super','alert','drop'],['super', 'alert']]


sum_ = []
for j in range(len(tweet_token)):
   sum_tweet = 0
   for i  in range(len(list_)):
       for token in tweet_token[j]:
           if token == list_[i][0]:
              sum_tweet += list_[i][1]
   sum_.append(sum_tweet)

#op
print(sum_)
[35.993, 14.298]