ADLS ConcurrentAppend 给出 1 MB 文件的损坏数据
ADLS ConcurrentAppend giving corrupt data for 1 MB files
当我使用 Parallel.For
循环将 10 个 1 MB 大小的文件同时附加到 Azure Data Lake Service 时,我只看到我的 Azure Data Lake 文件上最后 2 个文件的内容,尽管我看到了正确的数据正在打印到控制台。
当我使用简单的 for 循环而不是 Parallel.For
时,附加到文件的数据是正确的。
有什么帮助吗?
Parallel.For(0, 10, i =>
{
path[i] = @"C:\Users\t-chkum\Desktop\InputFilesMB\" + (i + 1) + ".txt";
FileStream stream = File.OpenRead(path[i]);
stream.Read(buffer, 0, buffer.Length);
Console.WriteLine(Encoding.UTF8.GetString(buffer));
client.ConcurrentAppend(fileName, true, buffer, 0, buffer.Length);
stream.Close();
});
这实际上是一个临界区问题,可以使用块集合或锁来解决:
BlockingCollection<int> b = new BlockingCollection<int>(1);
Parallel.For(0, 10, i =>
{
b.Add(i);
path[i] = @"C:\Users\t-chkum\Desktop\InputFilesMB\" + (i + 1) + ".txt";
FileStream stream = File.OpenRead(path[i]);
stream.Read(buffer, 0, buffer.Length);
client.ConcurrentAppend(fileName, true, buffer, 0, buffer.Length);
Array.Clear(buffer, 0, buffer.Length);
stream.Close();
b.Take();
});
上面的代码解决了我的问题:)
当我使用 Parallel.For
循环将 10 个 1 MB 大小的文件同时附加到 Azure Data Lake Service 时,我只看到我的 Azure Data Lake 文件上最后 2 个文件的内容,尽管我看到了正确的数据正在打印到控制台。
当我使用简单的 for 循环而不是 Parallel.For
时,附加到文件的数据是正确的。
有什么帮助吗?
Parallel.For(0, 10, i =>
{
path[i] = @"C:\Users\t-chkum\Desktop\InputFilesMB\" + (i + 1) + ".txt";
FileStream stream = File.OpenRead(path[i]);
stream.Read(buffer, 0, buffer.Length);
Console.WriteLine(Encoding.UTF8.GetString(buffer));
client.ConcurrentAppend(fileName, true, buffer, 0, buffer.Length);
stream.Close();
});
这实际上是一个临界区问题,可以使用块集合或锁来解决:
BlockingCollection<int> b = new BlockingCollection<int>(1);
Parallel.For(0, 10, i =>
{
b.Add(i);
path[i] = @"C:\Users\t-chkum\Desktop\InputFilesMB\" + (i + 1) + ".txt";
FileStream stream = File.OpenRead(path[i]);
stream.Read(buffer, 0, buffer.Length);
client.ConcurrentAppend(fileName, true, buffer, 0, buffer.Length);
Array.Clear(buffer, 0, buffer.Length);
stream.Close();
b.Take();
});
上面的代码解决了我的问题:)