Plus de précision de validation, de formation accurracy à l'aide de Tensorflow et Keras

Je suis en train d'utiliser l'apprentissage en profondeur de prévoir des revenus de 15 auto-rapporté des attributs à partir d'un site de rencontre.

Nous sommes d'obtenir des résultats bizarres, où nos données de validation est d'obtenir une meilleure précision et une diminution de la perte, de nos données d'entraînement. Et cela est conforme au travers de différentes tailles de couches cachées.
C'est notre modèle:

for hl1 in [250, 200, 150, 100, 75, 50, 25, 15, 10, 7]:
    def baseline_model():
        model = Sequential()
        model.add(Dense(hl1, input_dim=299, kernel_initializer='normal', activation='relu', kernel_regularizer=regularizers.l1_l2(0.001)))
        model.add(Dropout(0.5, seed=seed))
        model.add(Dense(3, kernel_initializer='normal', activation='sigmoid'))

        model.compile(loss='categorical_crossentropy', optimizer='adamax', metrics=['accuracy'])
        return model

    history_logs = LossHistory()
    model = baseline_model()
    history = model.fit(X, Y, validation_split=0.3, shuffle=False, epochs=50, batch_size=10, verbose=2, callbacks=[history_logs])

Et c'est un exemple de la précision et de pertes:
Plus de précision de validation, de formation accurracy à l'aide de Tensorflow et Keras.

Nous avons essayé de le supprimer de régularisation et d'abandon, qui, comme prévu, a terminé dans le surajustement (formation acc: ~85%). Nous avons même essayé de diminuer le taux d'apprentissage de façon spectaculaire, avec des résultats similaires.

Quelqu'un a vu des résultats similaires?

InformationsquelleAutor Jasper | 2017-05-15