Публикации по теме 'sigmoid'


MultiSURFSelector
Выбор признаков — действительно важная задача, когда речь идет о сложных данных. Один из методов, который мог бы помочь нам справиться с этим, — алгоритм MultiSURF, то есть Алгоритм на основе рельефа (RBA) — метод индивидуальной оценки фильтра. Алгоритм MultiSURF использует алгоритм Relief, но отличается созданием порога, определяющего среднее попарное расстояние между целевым экземпляром и всеми остальными, в отличие от среднего значения всех пар экземпляров в данных. Таким образом,..

Последние достижения в области искусственного интеллекта
Прогресс в области искусственного интеллекта происходит очень быстро. Согласно отчету Стэнфордского университета об индексе искусственного интеллекта за 2019 год, каждые три месяца скорость вычислений искусственного интеллекта удваивается. Следовательно, за последние пять лет область искусственного интеллекта добилась значительного прогресса почти во всех своих стандартных подобластях, включая зрение, распознавание и генерацию речи, обработку естественного языка (понимание и..

[Ускоренный курс ML] Логистическая регрессия: расчет вероятности
Расчет вероятности Многие задачи требуют оценки вероятности на выходе. Логистическая регрессия — чрезвычайно эффективный механизм расчета вероятностей. Практически говоря, вы можете использовать возвращенную вероятность одним из следующих двух способов: “As is” Преобразовано в бинарную категорию. Давайте рассмотрим, как мы могли бы использовать вероятность «как есть». Предположим, мы создаем модель логистической регрессии, чтобы предсказать вероятность того, что собака будет..

Модели гауссовой смеси: реализованы с нуля
С появлением областей машинного обучения и искусственного интеллекта теория вероятностей стала мощным инструментом, который позволил нам справиться с неопределенностью во многих приложениях, от классификации до задач прогнозирования. Сегодня я хотел бы подробнее поговорить с вами об использовании вероятностного и гауссовского распределения в задачах кластеризации, попутно реализуя модель GMM. Итак, приступим Что такое GMM? GMM (или модели гауссовской смеси) - это алгоритм, который..

Выбор регрессионных признаков с помощью Kydavra LassoSelector
"Машинное обучение" Выбор регрессионных признаков с помощью Kydavra LassoSelector Все мы знаем бритву Оккама: Из набора решений взял самое простое. Этот принцип применяется при регуляризации линейных моделей в машинном обучении. L1-регуляризация (также известная как LASSO) имеет тенденцию уменьшать размеры линейной модели до 0, в то время как L2-регуляризация (известная как Ridge), как правило, сохраняет общую сложность как можно более простой за счет минимизации нормы векторных..

Почему в нейронной сети используется функция активации
Привет, Сегодня я собираюсь объяснить, почему мы используем функцию нелинейной активации в нейронной сети как математически, так и визуально. В следующей следующей серии блога я объясню, почему первый уровень скрытого состояния очень важен и почему мы только с использованием линейно разделимой нелинейной функции активации и Как мы можем приблизиться к нелинейно разделимой нелинейной функции активации в одном персептроне. Начнем. Сначала мы должны знать, что происходит, когда мы выполняем..

Вопросы по теме 'sigmoid'

Функция активации в машинном обучении
Что подразумевается под функцией активации в машинном обучении. Я просматриваю большинство статей и видео, все говорят или сравнивают это с нейронной сетью. Я новичок в машинном обучении и мало знаком с глубоким обучением и нейронными сетями. Итак,...
144 просмотров

TypeError: невозможно преобразовать данные массива из dtype ('float64) в dtype (' ‹U32 ') в соответствии с безопасным правилом
class SigmoidNeuron: def __init__(self): self.w=None self.b=None def perceptron(self,x): return np.dot(x,self.w.T)+self.b def sigmoid(self,x): return 1.0/(1.0+np.exp(-x)) def grad_w(self,x,y):...
2228 просмотров

Сигмовидный выход - можно ли его интерпретировать как вероятность?
Сигмоидальная функция выводит число от 0 до 1. Является ли это вероятностью или это просто «да» или «нет» в зависимости от того, выше или ниже 0,5? Минимальный пример: Бинарная классификация кошек и собак. 0 - кошка, 1 - собака. Могу...
3272 просмотров

Применение функции калибровки - существующий PMML
У меня есть PMML для модели LGBM (python API), но я хотел бы применить функцию калибровки к прогнозам. Примером функции калибровки может быть сигмовидная или изотоническая регрессия. Не уверен, как добавить это к существующему PMML.
106 просмотров
schedule 18.05.2022

Интерпретация сигмовидного результата как вероятности в нейронных сетях
Я создал нейронную сеть с функцией активации сигмовидной формы на последнем слое, поэтому я получаю результаты от 0 до 1. Я хочу классифицировать вещи по 2 классам, поэтому проверяю, что «это число> 0,5, затем класс 1, еще класс. 0 ". Все основное....
1110 просмотров
schedule 09.06.2022

Проблемы при вычислении функции стоимости и градиента регуляризованной логистической регрессии
Я выполняю задание 4-й недели курса Эндрю Нг по машинному обучению на Coursera. Я должен вычислить функцию стоимости и градиент регуляризованной логистической регрессии. Вот что я написал: function [J, grad] = lrCostFunction(theta, X, y,...
619 просмотров

Как реализовать tf.nn.sigmoid_cross_entropy_with_logits
В настоящее время я изучаю тензорный поток и столкнулся с проблемой с tf.nn.sigmoid_cross_entropy_with_logits(labels=y,logits=logits) . В описании функции сказано, что и метки, и логиты должны быть одного типа. У меня есть функция ниже, которую я...
1050 просмотров
schedule 22.09.2022

функция активации sigmoid () или tanh () в линейной системе с нейронной сетью
Я пытаюсь построить нейронную сеть для изучения одной проблемы с непрерывной выходной переменной. Схематическое изображение используемой нейронной сети описано ниже. Схематическое изображение нейронной сети: размер входного слоя = 1; размер...
899 просмотров

Производная ReLU в обратном распространении
Я собираюсь сделать обратное распространение в нейронной сети, которая использует ReLU. В моем предыдущем проекте я делал это в сети, в которой использовалась функция активации сигмоида, но теперь я немного сбит с толку, поскольку у ReLU нет...
29332 просмотров

Подгонка экспериментальных данных указывает на различные кумулятивные распределения с использованием R
Я новичок в программировании и использовании программного обеспечения R, поэтому я был бы очень признателен за ваши отзывы о текущей проблеме, которую я пытаюсь решить. Итак, мне нужно подобрать кумулятивное распределение с некоторой функцией...
479 просмотров
schedule 20.06.2023

Зачем умножать ошибку на производную сигмоида в нейронных сетях?
Вот код: import numpy as np # sigmoid function def nonlin(x,deriv=False): if(deriv==True): return x*(1-x) return 1/(1+np.exp(-x)) # input dataset X = np.array([ [0,0,1], [0,1,1], [1,0,1],...
1686 просмотров

Распределение значений набора данных для сигмоиды и тангенса
Как отмечается во многих документах, для лучшей кривой обучения NN лучше нормализовать набор данных таким образом, чтобы значения соответствовали кривой Гаусса. Применяется ли это только в том случае, если мы используем сигмовидную функцию в...
180 просмотров

Подогнать сигмовидную кривую в питоне
Спасибо впереди! Я пытаюсь подогнать сигмовидную кривую к некоторым данным, ниже мой код import numpy as np import matplotlib.pyplot as plt from scipy.optimize import curve_fit ====== some code in between =======...
2599 просмотров

Разница в использовании сигмовидной функции активации вместо линейной активации и использовании сигмовидной кишки в потере
Я новичок в функциях потерь, и у меня есть проблема с двоичной классификацией 800 (что означает 800 нейронов на выходе, на которые не влияют друг друга - вероятность каждого равна 0 или 1). Теперь посмотрим на документацию:...
356 просмотров
schedule 28.02.2023

Нейронная сеть функции relu выводит 0 или 1
Я попытался реализовать простую нейронную сеть, используя как сигмовидную, так и релу-функции. с сигмовидной функцией я получил хорошие результаты. но при использовании relu я получил массив 0 или 1. (Мне нужна функция relu, потому что я хочу...
330 просмотров

Нейронная сеть для подбора синусоиды
Итак, я изучал нейронные сети и пробовал кодировать их с нуля, и в некоторых случаях мне это удалось. Итак, я подумал о том, чтобы подогнать простую однослойную нейронную сеть к синусоиде. Я знаю, что могу использовать керас, но хочу изучить...
372 просмотров

nls sslogis: использование фиктивной переменной в качестве условия взаимодействия для сравнения двух сигмовидных моделей.
Я использую следующую модель в своем коде: model <- nls(y ~ SSlogis(x, Asym, xmid, scal), data = data.frame(x, y)) Есть переменная ( V ) с двумя уровнями: V1 и V2 Модель 1: Подгонка Y к X с помощью сигмовидной функции, когда...
200 просмотров
schedule 25.09.2023

Что-то не так с сигмовидной кривой для логистической регрессии
Я пытаюсь использовать логистическую регрессию популярности хитов на Spotify с 2010 по 2019 год на основе их продолжительности и долговечности, данные о которых собираются из файла .csv. По сути, поскольку значения популярности каждой песни являются...
57 просмотров
schedule 02.05.2023

Как получить сигмовидную функцию от 0 до 1 для вероятности правильного ответа?
Я пытаюсь смоделировать некоторые данные, где ответ может быть либо правильным (1), либо неправильным (0). Таким образом, я пытаюсь найти распределение, в котором есть четыре условия (в данном случае степени окружности). Таким образом, ось x равна...
1613 просмотров

Вычисление дельты смещения с использованием производной сигмовидной функции всегда дает 0
Я делаю ANN с использованием python и приступил к обратному распространению. Вскоре я столкнулся с проблемой вычисления дельта-значения смещения. Это стало проблемой, потому что я использую сигмовидную функцию, производная которой (...
154 просмотров
schedule 24.04.2023