Вопросы по теме 'activation-function'

Как сделать пользовательскую функцию активации только с Python в Tensorflow?
Предположим, вам нужно создать функцию активации, которая невозможна с использованием только предварительно определенных строительных блоков тензорного потока, что вы можете сделать? Таким образом, в Tensorflow можно создать свою собственную...
26222 просмотров

Рекомендации по использованию ReLU в качестве функции активации
Я реализую нейронную сеть и хотел использовать ReLU в качестве функции активации нейронов. Кроме того, я обучаю сеть с помощью SDG и обратного распространения. Я тестирую нейронную сеть с парадигматической проблемой XOR, и до сих пор она правильно...
5216 просмотров

Керас - Нан в сводной гистограмме LSTM
Я написал модель LSTM с использованием Keras и предварительной активации LeakyReLU: # ADAM Optimizer with learning rate decay opt = optimizers.Adam(lr=0.0001, beta_1=0.9, beta_2=0.999, epsilon=1e-08, decay=0.0001) # build the model...
1427 просмотров

Уровни расширенной активации в Keras Functional API
При настройке нейронной сети с помощью Keras вы можете использовать либо модель Sequential , либо Functional API . Насколько я понимаю, первый легко настраивается и управляется, работает как линейный стек слоев, и что функциональный подход полезен...
3506 просмотров

О влиянии функций активации в CNN на время вычислений
В настоящее время я читаю следующую статью: «SqueezeNet: точность уровня AlexNet с в 50 раз меньшим количеством параметров и размером модели ‹0,5 МБ». В этом 4.2.3 (уровень функции активации) есть следующее утверждение: Разветвления функции...
155 просмотров

Пользовательская активация с параметром
Я пытаюсь создать функцию активации в Keras, которая может принимать параметр beta следующим образом: from keras import backend as K from keras.utils.generic_utils import get_custom_objects from keras.layers import Activation class...
1809 просмотров

Производная ReLU с NumPy
import numpy as np def relu(z): return np.maximum(0,z) def d_relu(z): z[z>0]=1 z[z<=0]=0 return z x=np.array([5,1,-4,0]) y=relu(x) z=d_relu(y) print("y = {}".format(y)) print("z = {}".format(z)) Приведенный выше код...
5235 просмотров

Почему добавление еще одного слоя в пример простой нейронной сети Tensorflow ломает его?
Вот основной пример сети Tensorflow (на основе MNIST), полный код, который дает точность примерно 0,92: import numpy as np import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data mnist =...
1054 просмотров

Как заменить операции relu6 на обычные relu в контрольной точке Tensorflow?
На самом деле, прямой вопрос: мне нужно преобразовать имеющуюся у меня модель Tensorflow в формат, который не поддерживает relu6, а просто обычный relu. Моя модель представлена ​​в виде 3 файлов ckpt (контрольных точек) (данные, индекс и метафайлы)....
425 просмотров
schedule 10.07.2023

Имеет ли смысл иметь несколько нейронов типа функции активации в одном слое?
Мне интересно, существует ли какой-либо случай или потребность в наличии нескольких типов нейронов, которые имеют разные функции активации друг для друга, смешанные в одном слое, и если да, то как реализовать это с помощью фреймворка Tensorflow...
833 просмотров

Роль функции активации в расчете функции стоимости для искусственных нейронных сетей
У меня есть некоторые трудности с пониманием роли функций активации и функций стоимости. Давайте рассмотрим простой пример. Допустим, я строю нейронную сеть (искусственную нейронную сеть). У меня есть 5 переменных «x» и одна переменная «y». Если...
121 просмотров

Как ReLu работает с выходным доменом с нулевым центром?
В проблеме, которую я пытаюсь решить, мой выходной домен центрирован по нулю, между -1 и 1. При поиске функций активации я заметил, что ReLu выводит значения от 0 до 1, что в основном означает, что ваш вывод все отрицательный или все положительный....
478 просмотров

Кусочная функция активации в тензорном потоке и математическая операция вещания
Я пытаюсь реализовать и протестировать функцию активации, которую я прочитал в статье. Я использую Keras с бэкэндом tensorflow и хочу передать функцию активации методу подгонки моей модели. Вот математическая форма функции: кусочная формула...
632 просмотров

Как изменить уровень активации в предварительно обученном модуле Pytorch?
Как изменить уровень активации предварительно обученной сети Pytorch? Вот мой код: print("All modules") for child in net.children(): if isinstance(child,nn.ReLU) or isinstance(child,nn.SELU): print(child) print('Before changing...
2185 просмотров

когда нам не нужна функция активации?
Я написал очень простую модель тензорного потока, в которой я хочу предсказать число: import tensorflow as tf import numpy as np def HW_numbers(x): y = (2 * x) + 1 return y x = np.array([1.0,2.0,3.0,4.0,5.0,6.0,7.0], dtype=float) y =...
234 просмотров

Как использовать разные функции активации в одном слое Keras?
Я работаю над Keras на Python, и у меня есть нейронная сеть (см. Код ниже). В настоящее время он работает только с активацией ReLu. По экспериментальным причинам я хотел бы иметь несколько нейронов на ReLu, а некоторые на softmax (или на любую...
6138 просмотров

Почему пользовательская функция активации вызывает в сети нулевые потери и низкую точность?
Я пытался создать настраиваемую функцию активации с помощью tflearn, внося следующие изменения: добавить мою пользовательскую функцию активации в activation.py def my_activation(x): return tf.where(x >= 0.0, tf.div( x**2 , x +...
375 просмотров