export_inference_graph.py与export_tflite_ssd_graph.py

export_inference_graph.py的输出是

 - model.ckpt.data-00000-of-00001
 - model.ckpt.info
 - model.ckpt.meta
 - frozen_inference_graph.pb
 + saved_model (a directory)

export_tflite_ssd_graph.py

的输出
- tflite_graph.pbtxt
- tflite_graph.pb

两个冻结的文件有什么区别?

carol0045 回答:export_inference_graph.py与export_tflite_ssd_graph.py

我假设您正在尝试在移动设备上使用对象检测模型。为此,您需要将模型转换为tflite版本。 但是,您不能将fastRCNN之类的模型转换为tflite。您需要将SSD型号用于移动设备。

在部署中使用诸如fastRCNN之类的模型的另一种方法是, 使用AWS EC2 tensorflow AMI,在云上部署模型并将其路由到您的网站域或移动设备。当服务器通过用户填写的http表单获取图像时,模型将在您的云服务器上对其进行处理,并将其发送回您所需的终端。

本文链接:https://www.f2er.com/3154446.html

大家都在问