Google Cloud ML Engine не может создать версию модели типа encoded_image_string_tensor.

Я обучил модель обнаружения объектов на ML Engine и экспортировал ее, вызвав:

python object_detection/export_inference_graph.py \ --input_type encoded_image_string_tensor ....

Затем я успешно протестировал предсказание локально, вызвав:

gcloud ml-engine local predict --model-dir ../saved_model --json-instances=inputs.json --runtime-version=1.2

где inputs.json содержит:

{"b64": "PNG-изображение в кодировке base64"}

Когда я пытаюсь создать версию модели в ML Engine, используя следующую команду:

gcloud ml-engine versions create ${YOUR_VERSION} --model ${YOUR_MODEL} --origin=${YOUR_GCS_BUCKET}/saved_model --runtime-version=1.2

он терпит неудачу со следующим сообщением:

ERROR: (gcloud.ml-engine.versions.create) Bad model detected with error: "Error loading the model: Could not load model. "

Поддерживает ли ML Engine версии моделей input_type=encoded_image_string_tensor и как я могу получить более подробную информацию об ошибке?

Создание версии модели на ml-engine с использованием экспортированной модели с input_type=image_tensor работает нормально.


person Jon Bæk Bomme    schedule 29.09.2017    source источник
comment
Приносим извинения за неудобства. Мы работаем над тем, чтобы отображать сообщения об ошибках во время создания версии. Не могли бы вы отправить свой проект/модель/версию на адрес [email protected], и мы постараемся найти вас?   -  person rhaertel80    schedule 30.09.2017


Ответы (1)


Можете ли вы убедиться, что вы экспортируете модель с помощью tensorflow 1.2?

У локального прогноза gcloud ml-engine нет флага --runtime-version, поэтому, если у вас установлен TF 1.3 и вы экспортировали свою модель с ним, локальный прогноз будет работать с использованием TF 1.3, но в модели могут быть несовместимости, когда пытаюсь использовать TF 1.2 на сервисе.

person Mike Cheng    schedule 30.09.2017