Как работает дискриминатор на DCGAN?

Я изучаю DCGAN, и мне что-то интересно.

В естественной GAN Яна Гудфеллоу модель дискриминатора выводит одно скалярное значение, что означает вероятность. Но дискриминатор DCGAN разработан с архитектурой CNN. Я знаю, что выход CNN — это вектор вероятностей классов.

Так как же дискриминатор работает на DCGAN? А какой выход у дискриминатора DCGAN?


person Soomin Lee    schedule 19.12.2017    source источник
comment
Я голосую за то, чтобы закрыть этот вопрос как не по теме, потому что он касается машинного обучения, а не разработки программного обеспечения. Вы можете обнаружить, что есть много вопросов о создании состязательных сетей как в Cross Validated, так и в DataScience. .SE.   -  person E_net4 the curator    schedule 19.12.2017
comment
Вы также, кажется, демонстрируете неправильное представление: выход сверточной нейронной сети не всегда является вектором вероятностей класса. Обычно это происходит только в задаче с несколькими классами, когда применяется активация softmax во главе сети.   -  person E_net4 the curator    schedule 19.12.2017


Ответы (2)


Подробный ответ см. в разделе Завершение изображений с помощью Deep Learning в TensorFlow.

Вкратце: предположим, вы делаете CNN, которая имеет n фильтров размера своего ввода и допустимого заполнения. Тогда вывод будет иметь форму n x 1 x 1. Затем вы можете применить softmax к этой форме, и у вас будут вероятности в каналах.

Вы также можете прочитать 2.2.1. Сверточные слои моей магистерской диссертации.

person Martin Thoma    schedule 21.12.2017

Дискриминатор D берет входное изображение 3x64x64 (например), обрабатывает его с помощью ряда слоев Conv2d, BatchNorm2d и LeakyReLU и выводит окончательную вероятность с помощью сигмовидной функции активации. .

Давайте посмотрим на пример кода, чтобы понять его ввод и вывод.

class Discriminator(nn.Module):
def __init__(self, ngpu):
    super(Discriminator, self).__init__()
    self.ngpu = ngpu
    self.main = nn.Sequential(

        nn.Conv2d(nc, ndf, 4, 2, 1, bias=False),
        nn.LeakyReLU(0.2, inplace=True),

        nn.Conv2d(ndf, ndf*2, 4, 2, 1, bias=False),
        nn.BatchNorm2d(ndf*2),
        nn.LeakyReLU(0.2, inplace=True),

        nn.Conv2d(ndf*2, ndf*4, 4, 2, 1, bias=False),
        nn.BatchNorm2d(ndf*4),
        nn.LeakyReLU(0.2, inplace=True),

        nn.Conv2d(ndf*4, ndf*8, 4, 2, 1, bias=False ),
        nn.BatchNorm2d(ndf*8),
        nn.LeakyReLU(0.2, inplace=True),

        nn.Conv2d(ndf*8, 1, 4, 1, 0, bias=False),
        nn.Sigmoid()

    )

def forward(self, input):
    return self.main(input)

Подробнее см. здесь

person Uzzal Podder    schedule 11.12.2018