glTexImage2D 导致内存泄漏
glTexImage2D causes memory leak
我打算使用 OpenGL 渲染视频流。
收到视频的第一帧后,我做的第一步是分配直接字节缓冲区并将所有帧片段放入其中。 ByteBuffer 只分配一次。
directBuffer = ByteBuffer.allocateDirect(frameSize * fragmentCount);
当所有帧片段就位后,我将 ByteBuffer 传递给 OpenGL 渲染器
public ByteBuffer getBuffer() {
buffer.rewind();
fragments.stream().forEach((frameFragment) -> {
for (byte byteFragment : frameFragment.getFrameData()) {
buffer.put(byteFragment);
}
});
buffer.flip();
return buffer;
}
主场景循环中的阻塞队列正在等待帧准备就绪,然后渲染场景。
ByteBuffer frame = framesQueue.take();
之后我清场,设置视口等等
glClear(GL_COLOR_BUFFER_BIT);
glColor3f(1, 1, 1);
glMatrixMode(GL_PROJECTION);
glPushMatrix();
glLoadIdentity();
glOrtho(-480, 480, -270, 270, -1, 1);
glPushMatrix();
glViewport(0, 0, 768, 576);
完成后,我准备在场景中绘制带纹理的四边形。
glBindTexture(GL_TEXTURE_2D, glGenTextures());
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_BORDER);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_BORDER);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);
glTexImage2D(GL_TEXTURE_2D, 0, GL_LUMINANCE, 768, 576, 0, GL_LUMINANCE, GL_UNSIGNED_BYTE, buffer);
glBegin(GL_QUADS);
{
glTexCoord2f(0.0f, 0.0f);
glVertex2f(0.0f, 0.0f);
glTexCoord2f(1.0f, 0.0f);
glVertex2f(768, 0.0f);
glTexCoord2f(1.0f, 1.0f);
glVertex2f(768, 576);
glTexCoord2f(0.0f, 1.0f);
glVertex2f(0.0f, 576);
}
glEnd();
程序是 运行,视频非常流畅且延迟相当低(这是主要问题)
问题是那个方法
glTexImage2D(GL_TEXTURE_2D, 0, GL_LUMINANCE, 768, 576, 0, GL_LUMINANCE, GL_UNSIGNED_BYTE, buffer);
导致内存泄漏。
java 堆空间似乎很好
但是 java 的内存使用量一直在无限增长。
为了测试,我对
进行了注释执行
glTexImage2D(GL_TEXTURE_2D, 0, GL_LUMINANCE, 768, 576, 0, GL_LUMINANCE, GL_UNSIGNED_BYTE, buffer);
方法,并没有发生内存泄漏。我也尝试使用 drawPixels 方法,这也有帮助,但我认为使用纹理是解决问题的方法,而不是弃用 drawPixels 方法。
如何解决内存泄漏问题?或者,每 40 毫秒在场景中显示新纹理的其他有效方法是什么?延迟很关键。
这个调用好像有问题
glBindTexture(GL_TEXTURE_2D, glGenTextures());
由于我只使用单个纹理,因此调用可以替换为
glBindTexture(GL_TEXTURE_2D, 0);
这会阻止 OpenGL 在每次调用时创建新纹理。
我打算使用 OpenGL 渲染视频流。
收到视频的第一帧后,我做的第一步是分配直接字节缓冲区并将所有帧片段放入其中。 ByteBuffer 只分配一次。
directBuffer = ByteBuffer.allocateDirect(frameSize * fragmentCount);
当所有帧片段就位后,我将 ByteBuffer 传递给 OpenGL 渲染器
public ByteBuffer getBuffer() {
buffer.rewind();
fragments.stream().forEach((frameFragment) -> {
for (byte byteFragment : frameFragment.getFrameData()) {
buffer.put(byteFragment);
}
});
buffer.flip();
return buffer;
}
主场景循环中的阻塞队列正在等待帧准备就绪,然后渲染场景。
ByteBuffer frame = framesQueue.take();
之后我清场,设置视口等等
glClear(GL_COLOR_BUFFER_BIT);
glColor3f(1, 1, 1);
glMatrixMode(GL_PROJECTION);
glPushMatrix();
glLoadIdentity();
glOrtho(-480, 480, -270, 270, -1, 1);
glPushMatrix();
glViewport(0, 0, 768, 576);
完成后,我准备在场景中绘制带纹理的四边形。
glBindTexture(GL_TEXTURE_2D, glGenTextures());
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_BORDER);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_BORDER);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);
glTexImage2D(GL_TEXTURE_2D, 0, GL_LUMINANCE, 768, 576, 0, GL_LUMINANCE, GL_UNSIGNED_BYTE, buffer);
glBegin(GL_QUADS);
{
glTexCoord2f(0.0f, 0.0f);
glVertex2f(0.0f, 0.0f);
glTexCoord2f(1.0f, 0.0f);
glVertex2f(768, 0.0f);
glTexCoord2f(1.0f, 1.0f);
glVertex2f(768, 576);
glTexCoord2f(0.0f, 1.0f);
glVertex2f(0.0f, 576);
}
glEnd();
程序是 运行,视频非常流畅且延迟相当低(这是主要问题)
问题是那个方法
glTexImage2D(GL_TEXTURE_2D, 0, GL_LUMINANCE, 768, 576, 0, GL_LUMINANCE, GL_UNSIGNED_BYTE, buffer);
导致内存泄漏。
java 堆空间似乎很好
但是 java 的内存使用量一直在无限增长。
为了测试,我对
进行了注释执行 glTexImage2D(GL_TEXTURE_2D, 0, GL_LUMINANCE, 768, 576, 0, GL_LUMINANCE, GL_UNSIGNED_BYTE, buffer);
方法,并没有发生内存泄漏。我也尝试使用 drawPixels 方法,这也有帮助,但我认为使用纹理是解决问题的方法,而不是弃用 drawPixels 方法。
如何解决内存泄漏问题?或者,每 40 毫秒在场景中显示新纹理的其他有效方法是什么?延迟很关键。
这个调用好像有问题
glBindTexture(GL_TEXTURE_2D, glGenTextures());
由于我只使用单个纹理,因此调用可以替换为
glBindTexture(GL_TEXTURE_2D, 0);
这会阻止 OpenGL 在每次调用时创建新纹理。