Я обучил модель обнаружения объектов на ML Engine и экспортировал ее, вызвав:
python object_detection/export_inference_graph.py \
--input_type encoded_image_string_tensor ....
Затем я успешно протестировал предсказание локально, вызвав:
gcloud ml-engine local predict --model-dir ../saved_model --json-instances=inputs.json --runtime-version=1.2
где inputs.json содержит:
{"b64": "PNG-изображение в кодировке base64"}
Когда я пытаюсь создать версию модели в ML Engine, используя следующую команду:
gcloud ml-engine versions create ${YOUR_VERSION} --model ${YOUR_MODEL} --origin=${YOUR_GCS_BUCKET}/saved_model --runtime-version=1.2
он терпит неудачу со следующим сообщением:
ERROR: (gcloud.ml-engine.versions.create) Bad model detected with error: "Error loading the model: Could not load model. "
Поддерживает ли ML Engine версии моделей input_type=encoded_image_string_tensor
и как я могу получить более подробную информацию об ошибке?
Создание версии модели на ml-engine с использованием экспортированной модели с input_type=image_tensor
работает нормально.