Всем привет! Мы продолжаем предоставлять информацию о ходе нашего проекта машинного обучения. В этом посте мы поговорим о библиотеках, которые мы используем для создания наиболее подходящей модели. Когда дело доходит до библиотек машинного обучения, конечно, есть много вариантов. Итак, какой из них мы использовали? Какие изменения нам пришлось внести? Что мы сделали для улучшения нашей модели? Вы можете продолжить чтение нашего блога для всех них!

Прежде всего, мы начали создавать нашу модель, используя библиотеку Keras. Keras — это оболочка, использующая Theano или Tensorflow в качестве серверной части. Это упрощает идентификацию и обучение моделей. Именно поэтому мы подумали, что эта библиотека нам подходит. Однако мы предпочли создавать процесс распознавания модели сами, а не использовать готовые функции.

Ниже вы можете увидеть матрицу путаницы и некоторые показатели, которых мы достигли в результате использования Keras. Как указано в предыдущем посте, наш набор данных содержал очень мало данных для «отвратительного» класса по сравнению с другими классами. Следовательно, как видно из матрицы путаницы, данные в столбце «отвратительно» равны 0. Точность, полнота и F1-значения для отвращения равны 0. В то время как эпоха была 64, наша точность составила 44%. это, наша точность нас не удовлетворяла. Мы решили использовать библиотеку FastAi для достижения более высокой точности модели.

Мы использовали библиотеку FastAi, потому что ее проще использовать, чем Keras и Pytorch. Его было проще использовать при реализации модели. В этой библиотеке мы использовали модели ResNet-34 и DenseNet-201. Поскольку эти модели более сложны, чем модели, которые мы создали, мы добились лучших результатов в нашем наборе данных. Хотя в нашем наборе данных было мало изображений класса отвращения и у нас был очень плохой результат в нашей модели, мы добились лучших результатов в этих двух моделях. Точность, которой мы достигли с помощью ResNet-34, составляет 59%, точность, которую мы достигли с помощью DenseNet-201, составляет 55%.

По нашему мнению, причина, по которой точность не выше, связана с нашим набором данных. Как упоминалось ранее, размеры изображений в нашем наборе данных очень малы, и у нас недостаточно данных для отвратительного класса. Вот почему мы думаем найти другой набор данных на следующей неделе и объединить его с нашим набором данных. Увидимся в следующем посте!