gpu小数精度
gpu decimal precision
我在 javascript 中创建了一个使用 gpu 的 mandelbrot 集,但是因为 javascript 当我放大很多时,小数点不是那么准确,屏幕变得像素化。如果我在 cpu 上编程它不会那么难,但因为我使用 gpu.js 我不能使用字符串,因此我不知道十进制库。
我只是想提高准确率,而不是让它没完没了。
有没有什么方法可以用多个浮点数创建更精确的浮点数(由于库的限制我不能使用字符串)这样我就可以:
- 相乘
- 添加
- 使用权力
image of the pixlation
谷歌搜索:gpu 和 "arbitrary precision" 显示恕我直言,这个问题现在还没有解决。
所以你可以:
- 编写自己的库
- 使用CPU 任意精度库
我在 javascript 中创建了一个使用 gpu 的 mandelbrot 集,但是因为 javascript 当我放大很多时,小数点不是那么准确,屏幕变得像素化。如果我在 cpu 上编程它不会那么难,但因为我使用 gpu.js 我不能使用字符串,因此我不知道十进制库。
我只是想提高准确率,而不是让它没完没了。
有没有什么方法可以用多个浮点数创建更精确的浮点数(由于库的限制我不能使用字符串)这样我就可以:
- 相乘
- 添加
- 使用权力
image of the pixlation
谷歌搜索:gpu 和 "arbitrary precision" 显示恕我直言,这个问题现在还没有解决。
所以你可以:
- 编写自己的库
- 使用CPU 任意精度库