2010-03-30 70 views
0

我是uploading the data to App Engine(不是开发服务器)通过装载机类和远程API,我打到CSV文件中间的配额。根据日志和进度sqllite db,如何选择要上传的剩余部分数据?如何将损坏的数据上传到生产的Google App Engine服务器?

通过几十条记录来确定哪些是哪些,哪些没有被转移,是没有吸引力的任务,所以我寻找一些方法来限制我需要检查的记录数。

这里是相关的(IMO)日志部分,如何解释工作项目编号?

[DEBUG 2010-03-30 03:22:51,757 bulkloader.py] [Thread-2] [1041-1050] Transferred 10 entities in 3.9 seconds 
[DEBUG 2010-03-30 03:22:51,757 adaptive_thread_pool.py] [Thread-2] Got work item [1071-1080] 
<cut> 
[DEBUG 2010-03-30 03:23:09,194 bulkloader.py] [Thread-1] [1141-1150] Transferred 10 entities in 4.6 seconds 
[DEBUG 2010-03-30 03:23:09,194 adaptive_thread_pool.py] [Thread-1] Got work item [1161-1170] 
<cut> 
[DEBUG 2010-03-30 03:23:09,226 bulkloader.py] [Thread-3] [1151-1160] Transferred 10 entities in 4.2 seconds 
[DEBUG 2010-03-30 03:23:09,226 adaptive_thread_pool.py] [Thread-3] Got work item [1171-1180] 
[ERROR 2010-03-30 03:23:10,174 bulkloader.py] Retrying on non-fatal HTTP error: 503 Service Unavailable 

回答

1

您可以resume破上传:

如果传输中断,你 可以继续从那里 不放过使用--db_filename = ... 参数传递。该值是工具创建的 进度文件的名称, 可以是您提供的名称 和开始传输时提供的--db_filename参数,也可以是包含时间戳的默认 名称。这个 假设你已经安装了sqlite3, ,并且没有使用--db_filename = skip来禁用进度文件 。

+0

再次抱歉失明和thx .... PS。我需要休假。 – 2010-03-30 19:02:31

相关问题