使用 Lua/ Torch7 的 HTTP 服务器

HTTP Server Using Lua/ Torch7

我开始学习 Torch7 以进入机器学习/深度学习领域,我发现它很吸引人(而且非常复杂哈哈)。然而,我主要关心的是,我是否可以将这种学习转化为应用程序——主要是我能否将我的 Torch7 Lua 脚本转化为应用程序可用于执行机器学习计算的服务器?如果可能的话,怎么做?

谢谢

您应该将 Torch 视为一个库(即使您可能将其作为独立的可执行文件访问)。该库可以从一些可通过 HTTP 访问的 Lua 代码中使用。 Lua 代码可能是 运行 inside OpenResty,它将处理所有 HTTP 交互,并且您可以获得与 OpenResty 相同的性能,可以配置为使用 LuaJIT。

另一种选择是使用基于 luasocket 和 copas 库的 HTTP 处理(例如,Xavante) or use one of the options listed on LuaWebserver 页面。

您也可以使用我们用 torch 测试过的 async 包。

尝试 llserver - 简约 Lua 服务器。作为单个协程运行,通过回调函数提供动态内容:https://github.com/ncp1402/llserver 您可以在其他协程中执行其他tasks/calculations。

您可以使用 waffle。这是页面上的 hello world 示例:

local app = require('waffle')

app.get('/', function(req, res)
   res.send('Hello World!')
end)

app.listen()

假设您的算法是一个简单的人脸检测器。输入是图像,输出是某种 json 格式的人脸检测。您可以执行以下操作:

local app = require('waffle')
require 'graphicsmagick'
require 'MyAlgorithm'

app.post('/', function(req, res)
  local img, detections, outputJson
  img = req.form.image_file:toImage()
  detections = MyAlgorithm.detect(img:double())
  outputJson = {}
  if (detections ~= nil) then
    outputJson.faceInPicture = true
    outputJson.faceDetections = detections
  else
    outputJson.faceInPicture = false
    outputJson.faceDetections = nil
  end
  res.json(outputJson)
end)

app.listen()

这样你的算法就可以作为一个独立的服务来使用。

两个async and waffle are great options. Another option is to use ZeroMQ + Protocol Buffers。无论您喜欢的 Web 开发环境是什么,您都可以使用 ZeroMQ 以异步方式向 Torch 发送请求,可能使用协议缓冲区序列化消息,然后在 Torch 中处理每个请求并将结果 return 返回。

通过这种方式,我设法获得了比 waffle 的 20K fib 测试更高的吞吐量。