Я написал очень простую модель тензорного потока, в которой я хочу предсказать число:
import tensorflow as tf
import numpy as np
def HW_numbers(x):
y = (2 * x) + 1
return y
x = np.array([1.0,2.0,3.0,4.0,5.0,6.0,7.0], dtype=float)
y = np.array(HW_numbers(x))
model = tf.keras.models.Sequential([tf.keras.layers.Dense(units=1,input_shape=[1])])
model.compile(optimizer='sgd',loss='mean_squared_error')
model.fit(x,y,epochs = 30)
print(model.predict([10.0]))
Этот код выше работает нормально. Но если я добавлю функцию активации в слой Dense, прогноз станет странным. Я пробовал relu, sigmoid, tanh и т. Д.
У меня вопрос, почему это так? Что именно делает функция активации на этом единственном слое, что нарушает предсказание? Я использовал Tensorflow 2.0