Пример логистической регрессии вероятности Tensorflow

Я чувствую, что, должно быть, упускаю что-то очевидное, пытаясь получить положительный контроль над логистической регрессией в вероятности тензорного потока.

Я изменил пример логистической регрессии здесь, и создали элементы положительного контроля и метки данных. Мне трудно достичь точности более 60%, однако это простая проблема для «ванильной» модели Keras (точность 100%). Что мне не хватает? Я пробовал разные слои, активации и т. Д. При таком методе настройки модели действительно выполняется апостериорное обновление? Мне нужно указать объект-перехватчик? Большое спасибо..

### Added positive control
nSamples = 80
features1 = np.float32(np.hstack((np.reshape(np.ones(40), (40, 1)), 
        np.reshape(np.random.randn(nSamples), (40, 2)))))
features2 = np.float32(np.hstack((np.reshape(np.zeros(40), (40, 1)), 
        np.reshape(np.random.randn(nSamples), (40, 2)))))
features = np.vstack((features1, features2))
labels = np.concatenate((np.zeros(40), np.ones(40)))
featuresInt, labelsInt = build_input_pipeline(features, labels, 10)
###

#w_true, b_true, features, labels = toy_logistic_data(FLAGS.num_examples, 2) 
#featuresInt, labelsInt = build_input_pipeline(features, labels, FLAGS.batch_size)

with tf.name_scope("logistic_regression", values=[featuresInt]):
    layer = tfp.layers.DenseFlipout(
        units=1,
        activation=None,
        kernel_posterior_fn=tfp.layers.default_mean_field_normal_fn(),
        bias_posterior_fn=tfp.layers.default_mean_field_normal_fn())
    logits = layer(featuresInt)
    labels_distribution = tfd.Bernoulli(logits=logits)

neg_log_likelihood = -tf.reduce_mean(labels_distribution.log_prob(labelsInt))
kl = sum(layer.losses)
elbo_loss = neg_log_likelihood + kl

predictions = tf.cast(logits > 0, dtype=tf.int32)
accuracy, accuracy_update_op = tf.metrics.accuracy(
    labels=labelsInt, predictions=predictions)

with tf.name_scope("train"):
    optimizer = tf.train.AdamOptimizer(learning_rate=FLAGS.learning_rate)
    train_op = optimizer.minimize(elbo_loss)

init_op = tf.group(tf.global_variables_initializer(),
                    tf.local_variables_initializer())

with tf.Session() as sess:
    sess.run(init_op)

    # Fit the model to data.
    for step in range(FLAGS.max_steps):
        _ = sess.run([train_op, accuracy_update_op])
        if step % 100 == 0:
            loss_value, accuracy_value = sess.run([elbo_loss, accuracy])
            print("Step: {:>3d} Loss: {:.3f} Accuracy: {:.3f}".format(
                step, loss_value, accuracy_value))

### Check with basic Keras
kerasModel = tf.keras.models.Sequential([
    tf.keras.layers.Dense(1)])
optimizer = tf.train.AdamOptimizer(5e-2)
kerasModel.compile(optimizer = optimizer, loss = 'binary_crossentropy', 
    metrics = ['accuracy'])

kerasModel.fit(features, labels, epochs = 50) #100% accuracy

person srhoades10    schedule 31.10.2018    source источник


Ответы (1)


По сравнению с примером на github, вы забыли разделить на количество примеров при определении расхождения KL:

kl = sum(layer.losses) / FLAGS.num_examples

Когда я изменяю это на ваш код, я быстро получаю точность 99,9% для ваших игрушечных данных.

Кроме того, выходной уровень вашей модели Keras фактически ожидает sigmoid активации для этой проблемы (двоичная классификация):

kerasModel = tf.keras.models.Sequential([
    tf.keras.layers.Dense(1, activation='sigmoid')])

Это игрушечная проблема, но вы заметите, что модель достигает 100% точности быстрее с помощью сигмовидной активации.

person sdcbr    schedule 13.12.2018