我有Azure blob存储中的试用帐户。我尝试从本地机器上传100000个生成的文件。该操作已经有超过17个小时的时间,并且只上传〜77000个文件。 通过一个简单的bash脚本创建的所有文件:Azure blob存储 - 上传速度非常慢
for i in {1..100000}
do
echo $i
echo $i > $1\\$i.txt
done
代码上传:
using(var stream = File.OpenWrite(textBoxManyUploadFileName.Text))
using(var writer = new StreamWriter(stream)) {
foreach(var file in Directory.GetFiles(textBoxManyUploadFrom.Text)) {
Guid id = Guid.NewGuid();
storage.StoreFile(file, id, ((FileType)comboBoxManyUploadTypes.SelectedItem).Number);
writer.WriteLine("{0}={1}", id, file);
}
}
public void StoreFile(Stream stream, Guid id, string container) {
try {
var blob = GetBlob(id, container);
blob.UploadFromStream(stream);
} catch(StorageException exception) {
throw TranslateException(exception, id, container);
}
}
public void StoreFile(string filename, Guid id, int type = 0) {
using(var stream = File.OpenRead(filename)) {
StoreFile(stream, id, type);
}
}
CloudBlob GetBlob(Guid id, string containerName) {
var container = azureBlobClient.GetContainerReference(containerName);
if(container.CreateIfNotExist()) {
container.SetPermissions(new BlobContainerPermissions {
PublicAccess = BlobContainerPublicAccessType.Container
});
}
return container.GetBlobReference(id.ToString());
}
第10000个文件有豆20-30分钟,然后上传的速度下降。 我认为这可能是由于文件名是GUID并且Azure试图构建聚集索引。 如何加快速度?问题是什么?
'GetFiles'返回字符串,对吧?但'StoreFile'需要一个流...我错过了什么? (我想知道你在哪里处理这个流,也许有些东西在泄漏)。你可能想要做'for(int i = 0; i <100000; i ++){container.GetBlobReference(Guid.NewGuid()。ToString ())UploadText(i.ToString())。 }来简化你正在测量的内容。 – smarx 2012-07-31 08:07:59
我不认为这些memleaks或处理上传速度的影响。流是通过调用File.OpenRead(filename) – brainstream 2012-07-31 08:24:11
创建的,那些流是否正确放置? – smarx 2012-07-31 08:52:59