1
我试图在dataproc主节点上使用gcloud运行pyspark应用程序。我得到“请求认证范围不足”请求认证范围不足
# gcloud dataproc jobs submit pyspark --cluster xxxxx test.py
gcloud.dataproc.jobs.submit.pyspark) You do not have permission
to access cluster [xxxxxx] (or it may not exist):
Request had insufficient authentication scopes
我可以通过Jobs GUI运行相同的应用程序。我没有链接到doc现在,但它表示,如果这已在Compute VM上运行,不需要单独的凭据,这似乎与我使用GUI运行相同的应用程序时一致。任何帮助?