检索所有推文并转发主题标签的用户 ID
retrieve all tweets and retweets user ids for hashtag
我如何使用基于主题标签的元数据(推文文本 - 用户 ID - 转推用户 ID)scraping 推文?我正在尝试使用 tweepy api 代码:
import tweepy
import csv
import pandas as pd
####input your credentials here
consumer_key = ''
consumer_secret = ''
access_token = ''
access_token_secret = ''
auth = tweepy.OAuthHandler(consumer_key, consumer_secret)
auth.set_access_token(access_token, access_token_secret)
api = tweepy.API(auth,wait_on_rate_limit=True)
#USA
# Open/Create a file to append data
csvFile = open('ua.csv', 'a')
#Use csv Writer
csvWriter = csv.writer(csvFile)
for tweet in tweepy.Cursor(api.search,q="#usa",count=100,
lang="en",
since="2018-04-03").items():
print (tweet.created_at, tweet.text)
csvWriter.writerow([tweet.created_at, tweet.text.encode('utf-8')])
你还没有解释你看到的是什么错误,但是:
旧版 Twitter v1.1 标准搜索 API(Tweepy 中 api.search
的调用)只能为您提供过去 7 天的数据。如果你需要自 2018 年 4 月以来的推文,你将需要使用高级 full-archive 搜索 API.
tweets with meta data(tweet text - userid - retweets user id)
您需要修改代码以包含 tweet.user.id
的值。旧版 v1.1 Twitter API 中没有转推计数,但此值是 API v2.
中新数据格式的一部分
我如何使用基于主题标签的元数据(推文文本 - 用户 ID - 转推用户 ID)scraping 推文?我正在尝试使用 tweepy api 代码:
import tweepy
import csv
import pandas as pd
####input your credentials here
consumer_key = ''
consumer_secret = ''
access_token = ''
access_token_secret = ''
auth = tweepy.OAuthHandler(consumer_key, consumer_secret)
auth.set_access_token(access_token, access_token_secret)
api = tweepy.API(auth,wait_on_rate_limit=True)
#USA
# Open/Create a file to append data
csvFile = open('ua.csv', 'a')
#Use csv Writer
csvWriter = csv.writer(csvFile)
for tweet in tweepy.Cursor(api.search,q="#usa",count=100,
lang="en",
since="2018-04-03").items():
print (tweet.created_at, tweet.text)
csvWriter.writerow([tweet.created_at, tweet.text.encode('utf-8')])
你还没有解释你看到的是什么错误,但是:
旧版 Twitter v1.1 标准搜索 API(Tweepy 中 api.search
的调用)只能为您提供过去 7 天的数据。如果你需要自 2018 年 4 月以来的推文,你将需要使用高级 full-archive 搜索 API.
tweets with meta data(tweet text - userid - retweets user id)
您需要修改代码以包含 tweet.user.id
的值。旧版 v1.1 Twitter API 中没有转推计数,但此值是 API v2.