使用 Lua/ Torch7 的 HTTP 服务器
HTTP Server Using Lua/ Torch7
我开始学习 Torch7 以进入机器学习/深度学习领域,我发现它很吸引人(而且非常复杂哈哈)。然而,我主要关心的是,我是否可以将这种学习转化为应用程序——主要是我能否将我的 Torch7 Lua 脚本转化为应用程序可用于执行机器学习计算的服务器?如果可能的话,怎么做?
谢谢
您应该将 Torch 视为一个库(即使您可能将其作为独立的可执行文件访问)。该库可以从一些可通过 HTTP 访问的 Lua 代码中使用。 Lua 代码可能是 运行 inside OpenResty,它将处理所有 HTTP 交互,并且您可以获得与 OpenResty 相同的性能,可以配置为使用 LuaJIT。
另一种选择是使用基于 luasocket 和 copas 库的 HTTP 处理(例如,Xavante) or use one of the options listed on LuaWebserver 页面。
您也可以使用我们用 torch 测试过的 async 包。
尝试 llserver - 简约 Lua 服务器。作为单个协程运行,通过回调函数提供动态内容:https://github.com/ncp1402/llserver
您可以在其他协程中执行其他tasks/calculations。
您可以使用 waffle。这是页面上的 hello world 示例:
local app = require('waffle')
app.get('/', function(req, res)
res.send('Hello World!')
end)
app.listen()
假设您的算法是一个简单的人脸检测器。输入是图像,输出是某种 json 格式的人脸检测。您可以执行以下操作:
local app = require('waffle')
require 'graphicsmagick'
require 'MyAlgorithm'
app.post('/', function(req, res)
local img, detections, outputJson
img = req.form.image_file:toImage()
detections = MyAlgorithm.detect(img:double())
outputJson = {}
if (detections ~= nil) then
outputJson.faceInPicture = true
outputJson.faceDetections = detections
else
outputJson.faceInPicture = false
outputJson.faceDetections = nil
end
res.json(outputJson)
end)
app.listen()
这样你的算法就可以作为一个独立的服务来使用。
两个async and waffle are great options. Another option is to use ZeroMQ + Protocol Buffers。无论您喜欢的 Web 开发环境是什么,您都可以使用 ZeroMQ 以异步方式向 Torch 发送请求,可能使用协议缓冲区序列化消息,然后在 Torch 中处理每个请求并将结果 return 返回。
通过这种方式,我设法获得了比 waffle 的 20K fib 测试更高的吞吐量。
我开始学习 Torch7 以进入机器学习/深度学习领域,我发现它很吸引人(而且非常复杂哈哈)。然而,我主要关心的是,我是否可以将这种学习转化为应用程序——主要是我能否将我的 Torch7 Lua 脚本转化为应用程序可用于执行机器学习计算的服务器?如果可能的话,怎么做?
谢谢
您应该将 Torch 视为一个库(即使您可能将其作为独立的可执行文件访问)。该库可以从一些可通过 HTTP 访问的 Lua 代码中使用。 Lua 代码可能是 运行 inside OpenResty,它将处理所有 HTTP 交互,并且您可以获得与 OpenResty 相同的性能,可以配置为使用 LuaJIT。
另一种选择是使用基于 luasocket 和 copas 库的 HTTP 处理(例如,Xavante) or use one of the options listed on LuaWebserver 页面。
您也可以使用我们用 torch 测试过的 async 包。
尝试 llserver - 简约 Lua 服务器。作为单个协程运行,通过回调函数提供动态内容:https://github.com/ncp1402/llserver 您可以在其他协程中执行其他tasks/calculations。
您可以使用 waffle。这是页面上的 hello world 示例:
local app = require('waffle')
app.get('/', function(req, res)
res.send('Hello World!')
end)
app.listen()
假设您的算法是一个简单的人脸检测器。输入是图像,输出是某种 json 格式的人脸检测。您可以执行以下操作:
local app = require('waffle')
require 'graphicsmagick'
require 'MyAlgorithm'
app.post('/', function(req, res)
local img, detections, outputJson
img = req.form.image_file:toImage()
detections = MyAlgorithm.detect(img:double())
outputJson = {}
if (detections ~= nil) then
outputJson.faceInPicture = true
outputJson.faceDetections = detections
else
outputJson.faceInPicture = false
outputJson.faceDetections = nil
end
res.json(outputJson)
end)
app.listen()
这样你的算法就可以作为一个独立的服务来使用。
两个async and waffle are great options. Another option is to use ZeroMQ + Protocol Buffers。无论您喜欢的 Web 开发环境是什么,您都可以使用 ZeroMQ 以异步方式向 Torch 发送请求,可能使用协议缓冲区序列化消息,然后在 Torch 中处理每个请求并将结果 return 返回。
通过这种方式,我设法获得了比 waffle 的 20K fib 测试更高的吞吐量。