为什么 HDFS ACL max_entries 设置为 32?

why are HDFS ACL max_entries set to 32?

在 Hadoop HDFS 中,当您启用 ACL 时,我发现最大 ACL 条目设置为 32。我在这里获得了源代码,在 org/apache/hadoop/hdfs/server/namenode/AclTransformation.java:

private static final int MAX_ENTRIES = 32;

这样做的依据是什么?有什么考虑? 我们可以将 32 更改为另一个更大的数字吗?我想重新配置它。

ACL 在 HDFS-4685 中实现 - 在 HDFS 中实现 ACL。

据我所知,没有关于 32 限制的设计决策。但是,由于大多数 Hadoop 系统 运行 在 Linux 上运行,并且此功能的灵感来自 Linux ACL 这个值很可能是从 ext3 的限制中借用的,如 POSIX Access Control Lists on Linux 安德烈亚斯·格伦巴赫 (Andreas Grünbacher)。

文章继续提到过多的 ACL 会产生问题,并且还显示了启用 ACL 后引入的性能差异(请参阅标题为“EA 和 ACL 性能”的部分) .