在 AWS Redshift 上安装 h3 python 库以在 UDF 中使用

installing h3 python library on AWS Redshift for usage in an UDF

我试图从 ubers H3 as a custom library for aws redshift by using this 安装 python 库进行安装。 我按照流程创建了以下函数:

create or replace function geo_to_h3 (lat float, lon float, h3_resolution int)
 returns varchar(60)
stable
as $$
   from h3 import h3
   return h3.geo_to_h3( lat , lon, h3_resolution)
$$ language plpythonu;

执行时:

select geo_to_h3(38.774467 , -9.115598, 9)

我收到以下错误:

OSError: /rdsdbdata/user_lib/0/0/1334190.zip/h3/out/libh3.so.1: cannot open shared object file: Not a directory

尝试在 redshift 上安装 h3cy 并在代码中使用它,但我得到:

ImportError: No module named _h3

我还用一个简单的库对此进行了测试以验证创建,它 works.Could 因为 python 的 h3 只是对 C 中核心库的绑定。 关于如何获得此 运行 或无法在 AWS Redshift 上安装每种类型的 python 库的任何建议?

目前要求导入 Redshift 的库是纯的 Python。不允许预编译 C/C++ 扩展。