1
我正在查看reddit数据集,以及寻找使用BigQuery查找二元数据的older question - 但是,该问题的答案对于URL并不适用,引号等。有没有更好的方法来做到这一点,并将其推广到三克而不是双克?如何使用BigQuery查找reddit数据集的n-grams
我正在查看reddit数据集,以及寻找使用BigQuery查找二元数据的older question - 但是,该问题的答案对于URL并不适用,引号等。有没有更好的方法来做到这一点,并将其推广到三克而不是双克?如何使用BigQuery查找reddit数据集的n-grams
这样做:
SELECT word, nextword, nextword2, COUNT(*) c
FROM (
SELECT pos, id, word, LEAD(word) OVER(PARTITION BY id ORDER BY pos) nextword, LEAD(word, 2) OVER(PARTITION BY id ORDER BY pos) nextword2 FROM (
SELECT id, word, pos FROM FLATTEN(
(SELECT id, REGEXP_REPLACE(word, 'QUOTE', "'") word, POSITION(word) pos FROM
(SELECT id, SPLIT(REGEXP_REPLACE(REGEXP_REPLACE(REGEXP_REPLACE(LOWER(body), "'", 'QUOTE'), r'http.?://[^ ]*', r'URL'), r'\b', ' '), ' ') word
FROM [fh-bigquery:reddit_comments.2016_01]
WHERE score>200
HAVING REGEXP_MATCH(word, '[a-zA-Z0-9]')
)
), word)
))
WHERE nextword IS NOT null
GROUP EACH BY 1, 2, 3
ORDER BY c DESC
LIMIT 100
(请注意,我过滤,用> 200的成绩更快的结果的意见 - 你可以做全月移动该过滤器)