Hadoop Pig 作业不 运行
Hadoop Pig job not running
我正在测试 hadoop,截至目前我有:
1) localhost:8088 工作
2) localhost:50070 工作
3) 我在 hdfs 上创建了一些文件
然后我启动 pig,对文件执行 LOAD,然后执行 FILTER,然后执行 DUMP。
当我 DUMP 时,pig 显示有关 mapreduce 启动的信息。
它以这样的句子结尾:
"MapReduceLauncher - 0% complete" + "Running Jobs are [job_xxx]".
所以我认为工作已经启动。我什至在 localhost:8088 的 hadoop 界面上将其视为一个已接受的应用程序。但随后什么也没有发生:它停留在 0% 完成 :-(
所以,工作是 "ACCEPTED" 但永远不会去 运行 :-(
我应该做些什么来使我的 grunt/pig 命令行指令成为 运行 ??
谢谢。
JR.
PS: 我不能从我的工作环境中复制粘贴。
当我意识到我的硬盘驱动器已满 90% 时,我解除了封锁。在这个级别,hadoop 拒绝再写日志。我只需要删除一些(大!)文件即可再次获取它 运行...
我正在测试 hadoop,截至目前我有:
1) localhost:8088 工作
2) localhost:50070 工作
3) 我在 hdfs 上创建了一些文件
然后我启动 pig,对文件执行 LOAD,然后执行 FILTER,然后执行 DUMP。
当我 DUMP 时,pig 显示有关 mapreduce 启动的信息。
它以这样的句子结尾:
"MapReduceLauncher - 0% complete" + "Running Jobs are [job_xxx]".
所以我认为工作已经启动。我什至在 localhost:8088 的 hadoop 界面上将其视为一个已接受的应用程序。但随后什么也没有发生:它停留在 0% 完成 :-(
所以,工作是 "ACCEPTED" 但永远不会去 运行 :-(
我应该做些什么来使我的 grunt/pig 命令行指令成为 运行 ??
谢谢。
JR.
PS: 我不能从我的工作环境中复制粘贴。
当我意识到我的硬盘驱动器已满 90% 时,我解除了封锁。在这个级别,hadoop 拒绝再写日志。我只需要删除一些(大!)文件即可再次获取它 运行...