Python gRPC 服务器中请求之间的持久状态?
Persistent state between requests in Python gRPC server?
在 gRPC 服务器的 Python 实现中,是否可以在请求之间保持一些持久的每线程状态? (看起来所有示例都使用 concurrent.futures.ThreadPoolExecutor
,但我没有找到太多关于实际服务器模型的文档)
这适用于设置成本不可忽略的事情,我想避免在每次 RPC 调用时都这样做,但我不能依赖它是线程安全的。例如。数据库连接、设置内存缓存等
这在 "nothing is stopping you from doing it" 的意义上是可能的,但 gRPC Python 不提供特定的实用程序来协助处理每个线程的状态。
在 gRPC 服务器的 Python 实现中,是否可以在请求之间保持一些持久的每线程状态? (看起来所有示例都使用 concurrent.futures.ThreadPoolExecutor
,但我没有找到太多关于实际服务器模型的文档)
这适用于设置成本不可忽略的事情,我想避免在每次 RPC 调用时都这样做,但我不能依赖它是线程安全的。例如。数据库连接、设置内存缓存等
这在 "nothing is stopping you from doing it" 的意义上是可能的,但 gRPC Python 不提供特定的实用程序来协助处理每个线程的状态。