java api 用于将 tfrecords 字节提供给张量流模型

java api for feeding tfrecords bytes to tensorflow model

有没有人知道高级 api 是否存在于 java 中,用于直接读取 tfrecords 并提供给 tensorflow savedModel 。 Python api 允许将 example.proto (tfrecords) 和张量馈送到 tf 模型进行推理。我在 java 中看到的唯一 api 是创建原始张量,有没有类似于 python sdk 的方法,我可以直接将 tfrecords (example.proto_ 保存到java 中的模型包。

我刚遇到同样的情况,我使用 Java Apache Beam 中的 TFRecordIO 来读取记录。例如, pipeline .apply(TFRecordIO.read().from(dataPath)) .apply(ParDo.of(new ModelEvaluationFn())); ModelEvaluationFn 中,我使用 savedModel 进行评分。使用 Java Apache Beam,您可以 运行 在本地,在 GCP Dataflow、Spark、Flink 等上。但是如果您直接使用 Spark,则有 spark-tensorflow-connector

我遇到的另一件事是如何解析 Java 中的 tfrecords,因为我需要通过使用一些列值来获取标签值和分组以获得细分分数。 org.tensorlfow/proto package can help you do that. Here are examples: example1, example2。本质上,它是 Example.parseFrom(byte[]).