gpu小数精度

gpu decimal precision

我在 javascript 中创建了一个使用 gpu 的 mandelbrot 集,但是因为 javascript 当我放大很多时,小数点不是那么准确,屏幕变得像素化。如果我在 cpu 上编程它不会那么难,但因为我使用 gpu.js 我不能使用字符串,因此我不知道十进制库。

我只是想提高准确率,而不是让它没完没了。

有没有什么方法可以用多个浮点数创建更精确的浮点数(由于库的限制我不能使用字符串)这样我就可以:

image of the pixlation

谷歌搜索:gpu 和 "arbitrary precision" 显示恕我直言,这个问题现在还没有解决。

所以你可以:

  • 编写自己的库
  • 使用CPU 任意精度库