hadoop mapreduce IntWritable范围有多长?

How long hadoop mapreduce IntWritable range?

Hadoop mapreduce 是一个分析大数据的框架。所以,其中一个例子 分析大数据是计数程序。所以我想问一下,hadoop IntWritable 范围有多长(如果数据到十亿是否适合使用?)。而如果我们要计数,我们用Java Int数据类型做加法或计数操作,那么Java Int数据类型范围呢?分析大数据是否也合适? (如果数据达到十亿)

非常感谢....

int 数据类型是一个 32 位有符号二进制补码整数。它的最小值为-2,147,483,648,最大值为2,147,483,647(含)。

IntWritable 也具有相同的范围容量,因为它仅在内部使用 int 类型。

如果您想超出此限制,请使用 LongWritable

您可以使用 int、long 类型作为局部变量,但如果您的计数在网络上移动作为 hadoop 类型的惯例,则必须使用 *Writable :-)