2017-05-09 80 views
0

我在分析一个包含Twitter API数据的JSON文件。 我想找出在我的数据集中出现多少次哈希标签或特定单词。我可以用得到最常见的鸣叫名单:pyspark:查找包含单词/主题标签的鸣叫数

print(df.groupby('text').count().sort(desc('count')).show()) 

所以我知道,例如,利物浦是在数据绝对是一个字。

我只想找到“利物浦”一词在我的数据集中出现多少次,这是可能的吗?谢谢

我使用Spark版本1.6.0。

列被命名为

['_corrupt_record', 'contributors', 'coordinates', 'created_at', 'delete', 
'entities', 'favorite_count', 'favorited', 'filter_level', 'geo', 'id', 
'id_str', 'in_reply_to_screen_name', 'in_reply_to_status_id', 
'in_reply_to_status_id_str', 'in_reply_to_user_id', 'in_reply_to_user_id_str', 
'lang', 'place', 'possibly_sensitive', 'retweet_count', 'retweeted', 
'retweeted_status', 'scopes', 'source', 'text', 'truncated', 'user', 
'withheld_in_countries'] 
+0

你能给更多的细节?你在使用spark 2.0+吗?您是否已经拥有数据框中的数据?你的专栏是什么? – flyingmeatball

+0

@flyingmeatball是的,对不起。我正在使用Spark版本1.6.0。列为['_corrupt_record','贡献者','坐标','created_at','删除','实体','favorite_count','favited','filter_level','geo','id','id_str' ,in_reply_to_status_id,in_reply_to_status_id_str,in_reply_to_user_id,in_reply_to_user_id_str,lang,place,来源','文本','截断','用户','版主'in''_countries'] – MelesMeles

回答

0

不知道这工作在1.6,我用2.1,但我会做一些类似的:

from pyspark.sql.functions import col 

df.where(col('text').like("%Liverpool%")).count() 
+1

谢谢!我需要使用like而不是isin,但是你指向了正确的方向df.where(col('text')。like(“%Liverpool%”))。count() – MelesMeles

+0

@flyingmeatball可能会调整答案,可以标记接受? – titipata

+0

以上对 – flyingmeatball