При обучении набора классов (скажем, #clases (количество классов) = N) в Caffe Deep Learning (или любой другой платформе CNN) я делаю запрос к caffemodel em >, Я получаю% вероятности того, что изображение может быть в порядке.
Итак, давайте сфотографируем аналогичный Class 1, и я получу результат:
1.- 90%
2.- 10%
отдых ... 0%
проблема в следующем: когда я делаю случайный снимок (например, своего окружения), я получаю тот же результат, где один из классов преобладает (›вероятность 90%), но не принадлежат к любому классу.
Итак, я бы хотел услышать мнения / ответы людей, которые испытали это и решили, как бороться с бессмысленными входами в нейронную сеть.
Мои цели:
- Обучите еще один дополнительный класс с негативными изображениями (например, с помощью train_cascade).
- Тренируйте еще один дополнительный класс со всеми положительными изображениями из набора TRAIN и отрицательными из набора VAL.
Но у моих целей нет научной основы для их выполнения, поэтому я задаю вам этот вопрос.
Что бы вы сделали?
Заранее большое спасибо.
Рафаэль.