现在我们可以成功地使用Tensorflow服务为模型服务。我们已经使用以下方法导出模型并将其与Tensorflow服务托管。使用Tensorflow Serving服务Keras模型
------------
For exporting
------------------
from tensorflow.contrib.session_bundle import exporter
K.set_learning_phase(0)
export_path = ... # where to save the exported graph
export_version = ... # version number (integer)
saver = tf.train.Saver(sharded=True)
model_exporter = exporter.Exporter(saver)
signature = exporter.classification_signature(input_tensor=model.input,
scores_tensor=model.output)
model_exporter.init(sess.graph.as_graph_def(),
default_graph_signature=signature)
model_exporter.export(export_path, tf.constant(export_version), sess)
--------------------------------------
For hosting
-----------------------------------------------
bazel-bin/tensorflow_serving/model_servers/tensorflow_model_server --port=9000 --model_name=default --model_base_path=/serving/models
但是我们的问题是 - 我们希望keras与Tensorflow服务集成。我们希望通过使用Keras的Tensorflow服务为模型提供服务。 我们想要这样做的原因是 - 在我们的架构中,我们遵循几种不同的方式来训练我们的模型,如deeplearning4j + Keras, Tensorflow + Keras,但对于服务,我们只想使用一个可服务的引擎,即Tensorflow服务。我们没有看到任何实现这一目标的直接方式。任何意见 ?
谢谢。
我知道你问TF服务,所以我赢了”不要把这个帖子当作答案,但如果你想要将实际的工具附加到你的模型而不是黑盒子,你也可以看看:https://github.com/deeplearning4j/deeplearning4j/blob/master/deeplearning4j-scaleout/deeplearning4j-scaleout -parallelwrapper/src目录/主/ JAVA /组织/ deeplearning4j /并行/ ParallelInference。java的keras(我只提到这个,因为你使用dl4j作为你的管道的一部分) –