Вопросы по теме 'autoencoder'
Сети глубокого убеждения против сверточных нейронных сетей
Я новичок в области нейронных сетей, и мне хотелось бы узнать разницу между сетями глубокого убеждения и сверточными сетями. Кроме того, существует ли глубокая сверточная сеть, которая представляет собой комбинацию глубокого убеждения и сверточных...
22183 просмотров
schedule
08.12.2021
Использование больших входных значений с автокодировщиками
Я создал нейронную сеть Auto Encoder в MATLAB. У меня довольно большие входные данные на первом уровне, которые я должен реконструировать через выходной слой сети. Я не могу использовать большие входные данные как есть, поэтому я конвертирую их...
1727 просмотров
schedule
27.09.2021
Глубокий вариационный автоэнкодер Keras
Я пытаюсь адаптировать пример Keras VAE к глубокой сети, добавив еще один уровень.
Исходный код: Исходный код VAE
ИЗМЕНЕНИЯ:
batch_size = 200
original_dim = 784
latent_dim = 2
intermediate_dim_deep = 384 # <<<<<<<...
2236 просмотров
schedule
15.10.2021
Реализуйте автоэнкодер с помощью tensorflow
Я хочу реализовать свой собственный код автоэнкодера, используя тензорный поток, изменив код: введите здесь описание ссылки Я хочу записать код в класс. Реализуемый мной класс:
import tensorflow as tf
class AutoEncoder:
def...
3157 просмотров
schedule
09.11.2021
Автоэнкодер не изучает функцию идентификации
Я новичок в машинном обучении в целом, и я хотел провести простой эксперимент, чтобы лучше познакомиться с автокодировщиками нейронных сетей: создать чрезвычайно простой автокодер, который изучал бы функцию идентификации.
Я использую Keras, чтобы...
3372 просмотров
schedule
22.11.2021
Обучение дает очень низкую ошибку, но очень неправильный (почти все) вывод
Я пытаюсь обучить автоэнкодер на некоторых смоделированных данных, где вход в основном представляет собой вектор с примененным гауссовским шумом. Код почти такой же, как в этом примере:...
67 просмотров
schedule
31.10.2021
Использование кросс-энтропийных потерь при шумоподавлении автокодера насыщает вывод
Я использую эту реализацию шумоподавляющего автокодера в наборе данных CIFAR10, который был масштабирован до [0 , 1]. Мои гиперпараметры -
Adam optimizer
lr = 0.0001
sigmoid activations for both encoder and decoder
512 hidden nodes
Batch size...
600 просмотров
schedule
20.09.2021
Стоимость тензорного потока составляет нан при обучении автоэнкодера
Я обучаю автоэнкодер с тензорным потоком, но стоимость составляет нан, я изменяю скорость обучения и оптимизатор, но он не работает. Некоторые результаты поиска показывают, что уменьшение lr может помочь, но я меняю lr на 0,00001, это тоже не будет...
719 просмотров
schedule
21.11.2021
ValueError при обучении автоэнкодера в Keras для неконтролируемого обучения
Я пытаюсь использовать автоэнкодер в Keras для неконтролируемой классификации гиперспектральных изображений с использованием набора данных Indian Pines. Я начал с проекта здесь https://github.com/KonstantinosF/Classification-of-Hyperspectral-Image...
86 просмотров
schedule
12.09.2021
R - Построение модели автоэнкодера в Caret
Я хочу создать модель автоэнкодера с пакетом Caret со следующими функциями:
1) Создайте модель нейронной сети без учителя, используя автоэнкодеры глубокого обучения.
2) Использование модели автоэнкодера в (1) в качестве входных данных перед...
609 просмотров
schedule
08.09.2021
Практическое определение порога аномалии в (вариационных) автоэнкодерах
Хотя это не совсем вопрос программирования, я не нашел ничего по этой теме на этом сайте. В настоящее время я имею дело с (вариационными) автокодерами ((V) AE) и планирую использовать их для обнаружения аномалий. В целях тестирования я реализовал...
1055 просмотров
schedule
22.11.2021
Доступ к уменьшенной размерности обученного автоэнкодера
Вот автоэнкодер, обученный mnist с помощью PyTorch:
import torch
import torchvision
import torch.nn as nn
from torch.autograd import Variable
cuda = torch.cuda.is_available() # True if cuda is available, False otherwise
FloatTensor =...
469 просмотров
schedule
05.09.2021
Как работает потеря двоичной кросс-энтропии на автоэнкодерах?
Я написал ванильный автоэнкодер, используя только слой Dense . Ниже мой код:
iLayer = Input ((784,))
layer1 = Dense(128, activation='relu' ) (iLayer)
layer2 = Dense(64, activation='relu') (layer1)
layer3 = Dense(28, activation ='relu')...
13863 просмотров
schedule
22.10.2021
Ошибка при проверке цели: ожидаемая форма для conv2d_transpose
Я хочу реализовать автоматический кодировщик для набора данных Faces с помощью Keras. Я использовал train_on_batch , потому что набор данных слишком велик, но я столкнулся с этой проблемой:
for i in range(10):
batch_index = 0
while...
516 просмотров
schedule
21.09.2021
Автоэнкодер для кодирования функций / категорий данных
У меня вопрос по поводу использования автоэнкодеров (в PyTorch). У меня есть табличный набор данных с категориальной функцией, который имеет 10 разных категорий. Названия у этих категорий очень разные - некоторые имена состоят из одного слова,...
391 просмотров
schedule
25.10.2021
В чем разница между автокодировщиком шумоподавления и обычным автокодировщиком?
Для обучения шумоподавляющего автоэнкодера я построил x + n во входных данных и x в выходных данных ( x : исходные данные, n : шум). После завершения обучения я получил данные с удаленным шумом с помощью шумоподавляющего автокодировщика (...
1018 просмотров
schedule
01.03.2022
Как реализовать гауссовский рендерер со средними значениями и значениями дисперсии в качестве входных данных в любой структуре глубокого моделирования (должен иметь возможность обратного распространения)
Представьте себе типичную модель автокодировщика-декодера. Однако вместо обычного декодера, в котором деконвации вместе с апскейлингом используются для создания / синтеза тензора, подобного входному в модели, мне нужно реализовать структурированный /...
88 просмотров
schedule
02.03.2022
Автоэнкодер с использованием обратного распространения
Я пытаюсь реализовать автоэнкодер, используя этот ресурс, который реализует алгоритм обратного распространения. Я использую тот же алгоритм прямой связи, реализованный там, но, тем не менее, он дает мне большую ошибку. В автоэнкодерах -...
1156 просмотров
schedule
08.03.2022
Автоэнкодер на примере Кераса
В документе Кераса есть пример DAE (Denoising AutoEncoder). Ниже приводится ссылка https://keras.io/examples/mnist_denoising_autoencoder/ .
Как мы знаем, автокодер состоит из сети кодировщика и декодера, а выход кодировщика является входом...
262 просмотров
schedule
08.03.2022
Tensorflow - основная разница в потерях между машинами
Я написал вариационный автокодировщик в Keras, используя Tensorflow в качестве бэкэнда. В качестве оптимизатора я использую Adam со скоростью обучения 1e-4 и размером пакета 16. Когда я тренирую сеть на процессоре Macbook (Intel Core i7), значение...
182 просмотров
schedule
20.03.2022