Примечание: в этой статье я упоминаю о двух базовых архитектурах и основных элементах искусственных нейронных сетей. Концепции, которые вам нужно знать заранее, просты; регрессионные и классификационные типы.

Базовая структура искусственных нейронных сетей

Искусственные нейронные сети (ИНС) - это вычислительные модели, созданные на основе человеческого мозга. Другими словами, это математическое моделирование логики работы человеческого мозга. Основная цель - предоставить результат (или вывод), который соответствует нашей цели, после прохождения некоторых процессов. Точно так же, как человеческий мозг состоит из миллиардов нейронов, в ИНС также есть сотни или тысячи искусственных нейронов.

ИНС используются для задач регрессии или классификации и состоят из двух основных архитектур:

  1. Однослойные искусственные нейронные сети
  2. Многослойные искусственные нейронные сети

Однослойные искусственные нейронные сети

Однослойные искусственные нейронные сети также называются персептронами. Персептрон - это базовый компонент ИНС. На самом деле это алгоритм двоичной классификации, изобретенный Фрэнком Розенблаттом в 1957 году. То есть это алгоритм, который пытается решить, к какому классу выходных данных принадлежит вход.

Как работает перцептрон?

Персептрон состоит из пяти компонентов:

  1. Входные данные: это независимые переменные (x), которые у нас есть.
  2. Веса. Параметры веса (w) управляют силой связи между входами и нейронами. Можно также сказать, что он отражает влияние независимой переменной на результат.
  3. Значение смещения (b): это постоянное значение, которое позволяет контролировать выходное значение. Кроме того, когда все входы равны нулю, это гарантирует, что процесс все еще может продолжаться.
  4. Функции активации: функция активации (f) определяет выходной сигнал нейрона в соответствии с определенными условиями.
  5. Вывод: зависимая переменная (y) - это результат, который мы хотим найти. В перцептронах результат делится на два класса: классы 1 и 0.

Если сформулировать процесс, то можно показать его так: y = f (x × w + b)

Процесс происходит следующим образом:

  • Взвешенная сумма рассчитывается путем первого умножения весов и входных данных, а затем их сложения. Значение смещения включено в это значение. (Bias = b = x0 × w0)

  • К взвешенной сумме (z) применяется функция активации, и результат находится. Персептроны используют пошаговую функцию в качестве функции активации. В соответствии с пошаговой функцией, если взвешенная сумма;

→ z ›0, тогда результат 1,

→ z≤0, тогда результат 0.

Область применения перцептронов ограничена. Персептроны Beacuse обычно используются для простых задач двоичной классификации, которые линейно разделяются.

Многослойные нейронные сети

Как следует из названия, многослойные нейронные сети или многослойные перцептроны (MLP) состоят из нескольких слоев. Помимо перцептронов, их можно использовать для решения нелинейно разделимых задач. Они достигают этого с помощью функций активации, которые они используют в своих слоях. Функции активации делают выход нейронов нелинейным. Таким образом, это позволяет решать более сложные задачи. (Без функции активации ИНС фактически становятся моделью линейной регрессии.)

Основные уровни MLP:

  • 1 входной слой → он включает 1 нейрон на вход x.
  • Скрытые слои (один или несколько) → Количество состоящих в нем нейронов зависит от задачи.
  • 1 выходной слой → Количество состоящих в нем нейронов зависит от задачи.

На первом этапе, для всех нейронов скрытых слоев, применяется тот же процесс в перцептроне:

  1. Вычисляется взвешенная сумма (z).
  2. Он передается соответствующему скрытому нейрону, после чего применяется функция активации, присутствующая в нейроне (ReLU или SELU).

На следующем этапе выходные данные скрытых слоев передаются на выходной слой. Как было сказано ранее, количество нейронов зависит от проблемы:

Регрессия: состоит из 1 нейрона,

Двоичная классификация: состоит из 1 нейрона

Классификация по нескольким меткам: состоит из 1 нейрона на метку,

Мультиклассовая классификация состоит из 1 нейрона на класс в выходном слое.

Функции активации в нейронах выходного слоя также зависят от задачи:

Регрессия: None или ReLU / Softplus (если выходы положительные) или Logistic / tanh (если выходы ограничены),

Двоичная классификация: логистическая (сигмовидная) функция,

Классификация по нескольким меткам: логистическая (сигмовидная) функция,

Мультиклассовая классификация: функция Softmax.

Основная цель состоит в том, чтобы позволить ИНС узнавать наиболее точные значения веса (таким образом, достигая наиболее точного результата) с правильными номерами скрытых слоев и нейронов. Мы можем сделать это, применив определенные процессы в нашей искусственной нейронной сети и оптимизируя ее.

Я уверен, что у вас в голове возникло много вопросов, например: «Итак, как происходит процесс обучения в ИНС? Каковы подробности функций активации? Сколько существует типов искусственных нейронных сетей и для каких целей? ». То, что описано в этой статье, на самом деле является лишь верхушкой айсберга. Надеюсь увидеть вас в других статьях, с которыми мы встречаемся, чтобы прояснить эти вопросы!

Ссылки

  • Книга Орелиена Герона «Практическое машинное обучение с помощью Scikit-Learn, Keras и TensorFlow: концепции, инструменты и методы для создания интеллектуальных систем»

Картинки: