DeleteManyAsync 会在删除文档时锁定 MongoDB 集合吗?
Will DeleteManyAsync lock MongoDB collection while deleting documents?
我想使用 DeleteManyAsync 方法删除多个文档。我会遇到被删除的大集合。与此同时,我希望插入我的新文件。我想知道当 DeleteManyAsync 被触发时,我的 数据库集合 是否会被 锁定 。
这是我要使用的代码:
List<MyDocument> list= new List<MyDocument>();
var filter = Builders<MyDocument>.Filter.In("_id", vl.Select(i => i.InternalId));
await _context?.MyDocuments?.DeleteManyAsync(filter);
Mongo 数据库锁是一个低级别的问题,在数据库服务器级别处理。作为使用驱动程序编写客户端应用程序的程序员,您无需过多担心数据库锁。
我想说的是,在使用 C# 驱动程序时,您不会注意到任何与在同一集合上执行的并发写入操作相关的问题。锁由存储引擎处理,而不是由客户端应用程序级别使用的驱动程序处理。
如果你检查 this documentation 你可以读到,如果对同一个集合的写操作发生冲突,存储引擎将在服务器级别重试该操作:
When the storage engine detects conflicts between two operations, one will incur a write conflict causing MongoDB to transparently retry that operation
因此,并发问题再次在服务器级别处理。
考虑一下,如果您需要您的应用程序具有高度可扩展性,您应该设计您的系统,以便尽可能避免对同一集合的并发写入操作。正如我上面所说,锁由存储引擎处理以保持数据的正确性,但锁会降低系统的整体可扩展性。因此,如果可伸缩性在您的场景中至关重要,您应该仔细设计您的系统并尽可能避免数据库级别的资源争用。
在客户端应用程序级别,您只需要决定是否重试失败的写入操作。
有时您可以安全地重试失败的操作,有时您不能(例如:在某些情况下,您最终会在数据库级别拥有重复数据。使用唯一索引可以很好地防止这种情况发生)。 =21=]
根据经验,幂等写入操作可以在发生故障时安全地重试(因为多次应用它们没有任何副作用)。换句话说,努力尽可能地进行幂等的写操作:这样你总是可以安全地重试失败的写操作。
如果您需要有关 mongo C# 驱动程序错误处理的一些指导,您可以查看 this documentation
2020 年 7 月 25 日更新
根据作者的评论,似乎主要关注的不是实际的数据库锁定策略,而是删除性能。
在那种情况下,我将按以下方式进行:
- 总是更喜欢执行单个数据库往返的命令(例如
deleteMany
)而不是发出多个单个命令(例如 deleteOne
)。通过执行单次往返,您将最大限度地减少延迟成本,并且您将执行单个数据库命令。效率更高
- 当您使用
deleteMany
命令时 请务必始终使用适当的索引过滤文档,以便在查找要删除的文档时避免集合扫描
- 如果您测量并且 确定 您的瓶颈是
deleteMany
速度,请考虑将 deleteMany
命令的性能与以下命令的性能进行比较相当于bulk write operation。我从来没有尝试过,所以我不知道实际的速度比较。我的感觉是可能根本没有区别,因为我怀疑 deleteMany
在后台执行批量写入。我也不知道,这只是感觉。
- 考虑更改您的设计,以便在满足某种过期条件时利用 TTL index feature 自动删除文档。这并非总是可行,但在适用时会很方便。
- 如果您执行删除操作作为某种数据清理任务的一部分,请考虑安排一个定期执行数据清理操作的作业,但要在您的工作时间之外用户.
我想使用 DeleteManyAsync 方法删除多个文档。我会遇到被删除的大集合。与此同时,我希望插入我的新文件。我想知道当 DeleteManyAsync 被触发时,我的 数据库集合 是否会被 锁定 。
这是我要使用的代码:
List<MyDocument> list= new List<MyDocument>();
var filter = Builders<MyDocument>.Filter.In("_id", vl.Select(i => i.InternalId));
await _context?.MyDocuments?.DeleteManyAsync(filter);
Mongo 数据库锁是一个低级别的问题,在数据库服务器级别处理。作为使用驱动程序编写客户端应用程序的程序员,您无需过多担心数据库锁。
我想说的是,在使用 C# 驱动程序时,您不会注意到任何与在同一集合上执行的并发写入操作相关的问题。锁由存储引擎处理,而不是由客户端应用程序级别使用的驱动程序处理。
如果你检查 this documentation 你可以读到,如果对同一个集合的写操作发生冲突,存储引擎将在服务器级别重试该操作:
When the storage engine detects conflicts between two operations, one will incur a write conflict causing MongoDB to transparently retry that operation
因此,并发问题再次在服务器级别处理。
考虑一下,如果您需要您的应用程序具有高度可扩展性,您应该设计您的系统,以便尽可能避免对同一集合的并发写入操作。正如我上面所说,锁由存储引擎处理以保持数据的正确性,但锁会降低系统的整体可扩展性。因此,如果可伸缩性在您的场景中至关重要,您应该仔细设计您的系统并尽可能避免数据库级别的资源争用。
在客户端应用程序级别,您只需要决定是否重试失败的写入操作。
有时您可以安全地重试失败的操作,有时您不能(例如:在某些情况下,您最终会在数据库级别拥有重复数据。使用唯一索引可以很好地防止这种情况发生)。 =21=]
根据经验,幂等写入操作可以在发生故障时安全地重试(因为多次应用它们没有任何副作用)。换句话说,努力尽可能地进行幂等的写操作:这样你总是可以安全地重试失败的写操作。
如果您需要有关 mongo C# 驱动程序错误处理的一些指导,您可以查看 this documentation
2020 年 7 月 25 日更新
根据作者的评论,似乎主要关注的不是实际的数据库锁定策略,而是删除性能。
在那种情况下,我将按以下方式进行:
- 总是更喜欢执行单个数据库往返的命令(例如
deleteMany
)而不是发出多个单个命令(例如deleteOne
)。通过执行单次往返,您将最大限度地减少延迟成本,并且您将执行单个数据库命令。效率更高 - 当您使用
deleteMany
命令时 请务必始终使用适当的索引过滤文档,以便在查找要删除的文档时避免集合扫描 - 如果您测量并且 确定 您的瓶颈是
deleteMany
速度,请考虑将deleteMany
命令的性能与以下命令的性能进行比较相当于bulk write operation。我从来没有尝试过,所以我不知道实际的速度比较。我的感觉是可能根本没有区别,因为我怀疑deleteMany
在后台执行批量写入。我也不知道,这只是感觉。 - 考虑更改您的设计,以便在满足某种过期条件时利用 TTL index feature 自动删除文档。这并非总是可行,但在适用时会很方便。
- 如果您执行删除操作作为某种数据清理任务的一部分,请考虑安排一个定期执行数据清理操作的作业,但要在您的工作时间之外用户.