Пользовательское видение Azure / Microsoft Cognitive Services - что такое спецификация выходного тензора модели обнаружения объектов?

Я пытаюсь адаптировать образец Android-проекта классификации изображений, доступный по адресу

https://github.com/Azure-Samples/cognitive-services-android-customvision-sample

для экспортированной модели Custom Vision Object Detection, но не очень ясно, какова структура выходного тензора - поскольку она включает ограничивающие прямоугольники и т. д.

Я также попытался преобразовать в tenorflow lite и поместить модель в проект iOS "детектор суши" по адресу

https://medium.com/@junjiwatanabe/how-to-build-real-time-object-recognition-ios-app-ca85c193865a

но опять же неясно, какова структура вывода и соответствует ли она API tf:

https://www.tensorflow.org/lite/demo_ios

При экспорте пакета tf есть несколько примеров Python, но я не уверен, как преобразовать его в Java / swift / Objective C - см., Например,

https://stackoverflow.com/a/54886689/1021819

Спасибо за помощь.


comment
PS Модераторы: Я знаю, что это зависит от службы, но Azure использует stackoverflow для решения технических вопросов. Также: если вопрос (который находится в заголовке) неясен, предложите конструктивные улучшения, а не просто голосование против. Спасибо!   -  person jtlz2    schedule 28.02.2019


Ответы (2)


Если вы разархивируете zip-файл экспортированной модели, вы найдете в нем папку python. Он содержит образцы кода на Python, показывающие, как следует анализировать выходные данные модели.

введите здесь описание изображения

person Ping Jin    schedule 04.03.2019

Немного поздно, но тем не менее. Это результат работы tflite-модели обнаружения объектов от Custom Vision. У него единственный выходной тензор.

введите здесь описание изображения

person Iorek    schedule 19.06.2020