Здравствуйте друзья! Это моя первая статья о машинном обучении. ML — один из лучших доменов на сегодняшний день! Мне интересно узнать что-то в этой области! Я собираюсь рассказать вам о том, как появилась моя первая классификация машинного обучения. Извините за любые языковые проблемы! 😊 Начнем!

Прежде всего, мне нужен был набор данных для предсказания. Для этого я использовал набор данных ниже.

Это набор данных для оценок учащихся за 3 семестра. Он имеет 6 атрибутов и 10 записей.

Время кодировать! Я использовал блокнот Юпитер для этой цели! Вы можете использовать все, что захотите!

Давайте импортируем несколько пакетов для работы с ним. Сначала я использовал pandas и numpy.

Затем мы должны прочитать наш набор данных. Давайте объявим переменную и прочитаем в нее указанные выше значения набора данных. Я бы прочитал набор данных так!

Давайте проверим форму нашего набора данных с помощью свойства shape. Он показывает, что наш набор данных имеет 10 необработанных данных и 6 атрибутов (столбцов).

Мы можем использовать свойство «head» для просмотра нашего набора данных. Мы можем получить необходимое количество необработанных данных из нашего набора данных, передав параметр внутри свойства «голова». Если мы дадим значение 15., тогда он покажет нашему набору данных все значения. потому что в нашем наборе данных всего 10 записей. Если вы используете больше необработанных данных, вы можете отфильтровать из значений, какой объем необработанных данных вы хотите.

Мы можем использовать свойство «описать» для просмотра некоторой важной статистической информации, такой как среднее значение, стандартное отклонение и межквартильный диапазон для измерения центра.

Давайте посмотрим информацию, используя свойство «info».

Давайте импортируем модуль train_test_split из библиотеки model_selection sklearn для обучения и тестирования нашей модели.

Мы хотим разделить наши атрибуты на две группы. Я использовал две переменные, называемые «без результата» и «результат», чтобы сохранить в них наши разделенные группы. Для этой цели я использовал свойство iloc.

Затем мы можем назвать наши переменные «без результата» как независимую переменную и «результат» как зависимую переменную.

Давайте посмотрим сохраненные значения наших независимых и зависимых переменных.

Из этого мы видим, что наш набор данных разделен на 2 группы. Первый - это наш ввод, а второй - вывод для этого ввода, похожего на то, что наша зависимая переменная «результат» зависит от нашей независимой переменной «без результата».

Затем мы должны поместить наши независимые и зависимые переменные в 4 группы для обучения и тестирования. Для этой цели нам нужны 4 переменные. Я заявил так.

Здесь мы хотим поиграть с нашей переменной данных результата, которая имеет формат 0 и 1. Затем она должна разделиться на обучающие и тестовые переменные по отдельности. Для данных поезда; он разделен на две части: «без ResultTrainData» и «resultTrainData». Для тестовых данных; он разделен на «без ResultTestData» и «resultTestData».

Я использовал 20% данных из нашей зависимой переменной для тестирования. «test_size=0.2» показывает это.

Мы увидим значения «resultTestData».

Он показывает 20% данных. Мы можем сказать 2 необработанных данных.

Для целей классификации; Я использовал алгоритм случайного леса. Давайте импортируем модуль «RandomClassifier» из библиотеки «sklearn.ensemble».

Затем мы должны вписать данные нашего поезда в нашу контролируемую модель.

Предскажем нашу модель.

Если мы увидим эти прогнозируемые значения, они отобразят значения из возможных результатов нашей зависимой переменной, называемые «1».

Давайте импортируем модуль под названием «accuracy_score», чтобы делать метрики путаницы.

Модуль «accuracy_score» принимает наши параметры, называемые «predict» и «resultTestData». Затем, если мы напечатаем переменную и увидим это значение оценки для нашего прогноза. Это скажет нам, насколько хорош наш прогноз.

Это все, что касается моей первой классификации с помощью алгоритма случайного леса.

Надеюсь, вам понравилась эта статья, даже если вы не знаете, что происходит.😜. Спасибо за прочтение!