使用 Apache.Spark 来管理任务好吗?

Is it good to use Apache.Spark to manage of tasks?

我开发了新的 python 应用程序。它由两部分组成:服务器和工人。服务器必须启动任务并管理程序的整个生命周期。 Worker是应用程序,能够完成一个任务。

我想使用 Apache Spark。这是管理任务的正确方法吗?如果没有,我应该使用什么样的软件来管理任务?

我不知道您要做什么,但听起来 Apache Spark 不是正确的选择。它是一个分布式计算系统,而不是任务管理器。查看它的文档以更好地了解它是什么:http://spark.apache.org/docs/latest/quick-start.html