KNN или K-ближайшие соседи. Это контролируемый алгоритм на основе машинного обучения, о котором студентов чаще всего спрашивают на собеседованиях, а также на многих экзаменах. Это очень интересный алгоритм, и давайте перейдем к нему. Итак, согласно вики, определение дается как:

В распознавании образов алгоритм k-ближайших соседей (k -NN) является предложенным непараметрическим методом. Томас Ковер, используемый для классификации и регрессии. В обоих случаях входные данные состоят из k ближайших обучающих примеров в пространстве функций.

А теперь давайте попробуем сделать это просто. Давайте рассмотрим набор точек, нанесенных на график, и разделили их на 3 различных кластера. Теперь, когда мы получаем новую точку, нам нужно отнести эту точку к одному из этих трех кластеров, так что же нам делать. Да, мы используем KNN. Взгляните на схему, приведенную ниже:

Итак, как мы можем видеть на приведенной выше диаграмме, точка X должна быть отнесена к одному из 3 классов, и для этого нам нужно вычислить расстояние от точки X до каждого из этих центров классов. Я возьму другой пример, чтобы объяснить концепцию расстояния и центров.

Здесь, на диаграмме, у нас есть 3 основных класса - A, B и C, и каждый из них имеет центр, скажем, A0, B0 и C0, как мы можем видеть на приведенном графике. Теперь для данной точки X нам нужно вычислить расстояние от точки до каждого из заданных кластеров, и на основе наименьшего расстояния точка классифицируется или помещается в один из этих кластеров.

Я посмотрел видео ниже для дальнейшего понимания.

Не мог сегодня много рассказать, но сделал все, что мог. Продолжай учиться.

Ваше здоровье.