在 AWS Redshift 上安装 h3 python 库以在 UDF 中使用
installing h3 python library on AWS Redshift for usage in an UDF
我试图从 ubers H3 as a custom library for aws redshift by using this 安装 python 库进行安装。
我按照流程创建了以下函数:
create or replace function geo_to_h3 (lat float, lon float, h3_resolution int)
returns varchar(60)
stable
as $$
from h3 import h3
return h3.geo_to_h3( lat , lon, h3_resolution)
$$ language plpythonu;
执行时:
select geo_to_h3(38.774467 , -9.115598, 9)
我收到以下错误:
OSError: /rdsdbdata/user_lib/0/0/1334190.zip/h3/out/libh3.so.1: cannot open shared object file: Not a directory
尝试在 redshift 上安装 h3cy 并在代码中使用它,但我得到:
ImportError: No module named _h3
我还用一个简单的库对此进行了测试以验证创建,它 works.Could 因为 python 的 h3 只是对 C 中核心库的绑定。
关于如何获得此 运行 或无法在 AWS Redshift 上安装每种类型的 python 库的任何建议?
目前要求导入 Redshift 的库是纯的 Python。不允许预编译 C/C++ 扩展。
我试图从 ubers H3 as a custom library for aws redshift by using this 安装 python 库进行安装。 我按照流程创建了以下函数:
create or replace function geo_to_h3 (lat float, lon float, h3_resolution int)
returns varchar(60)
stable
as $$
from h3 import h3
return h3.geo_to_h3( lat , lon, h3_resolution)
$$ language plpythonu;
执行时:
select geo_to_h3(38.774467 , -9.115598, 9)
我收到以下错误:
OSError: /rdsdbdata/user_lib/0/0/1334190.zip/h3/out/libh3.so.1: cannot open shared object file: Not a directory
尝试在 redshift 上安装 h3cy 并在代码中使用它,但我得到:
ImportError: No module named _h3
我还用一个简单的库对此进行了测试以验证创建,它 works.Could 因为 python 的 h3 只是对 C 中核心库的绑定。 关于如何获得此 运行 或无法在 AWS Redshift 上安装每种类型的 python 库的任何建议?
目前要求导入 Redshift 的库是纯的 Python。不允许预编译 C/C++ 扩展。