В настоящее время я разрабатываю контролируемое обнаружение аномалий с помощью многослойного персептрона (MLP), цель которого состоит в том, чтобы классифицировать безопасный и вредоносный трафик. Я использовал набор данных CTU-13, образец набора данных выглядит следующим образом: Пример набора данных. Набор данных содержит 169032 безопасных трафика и 143828 вредоносных. Код для моей модели MLP выглядит следующим образом:
def MLP_model():
model = Sequential()
model.add(Dense(1024,input_dim=15, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(256,activation='relu'))
model.add(Dense(256,activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(128,activation='relu'))
model.add(Dense(128,activation='relu'))
model.add(Dense(1, activation='sigmoid'))
adam = optimizers.Adam(lr=0.0001, beta_1=0.9, beta_2=0.999, epsilon=None, decay=0.0, amsgrad=False)
model.compile(optimizer = adam, loss='binary_crossentropy', metrics=['accuracy'])
return model
model = MLP_model()
#With Callbacks
callbacks = [EarlyStopping('val_loss', patience=5)]
hist = model.fit(Xtrain, Ytrain, epochs=50, batch_size=50, validation_split=0.20, callbacks=callbacks, verbose=1)
Результаты, которые я получил, следующие:
Accuracy: 0.923045
Precision: 0.999158
Recall: 0.833308
F1 score: 0.908728
Однако, судя по кривой обучения, я подозреваю, что модель не соответствует требованиям (на основе эта статья): Кривая обучения модели
Я попытался увеличить нейроны и количество слоев (как было предложено здесь), но та же проблема все еще возникает. Я ценю любую помощь в решении этой проблемы.