LPSA – Analyse de côtes
Veuillez glisser-déposer une base de données brute (CSV) ou formattée (JSON) n'importe où sur la page.
Victoire domicile
Match nul
Victoire extérieur
Paramètres de l'optimiseur
ρ (Rho)
Diminution du taux d'apprentissage à chaque mise à jourε (Epsilon)
Constante utilisée pour mieux conditionner la mise à jour du gradientInitial accumulator
Valeur de départ pour les accumulateurs, doit être positiveβ1 (Beta 1)
Le taux de décroissance exponentielle pour les estimations du premier momentβ2 (Beta 2)
Le taux de décroissance exponentielle pour les estimations du second momentε (Epsilon)
Une constante pour la stabilité numériqueDecay
Diminution du taux d’apprentissage à chaque mise à jourβ1 (Beta 1)
Le taux de décroissance exponentielle pour les estimations du premier momentβ2 (Beta 2)
Le taux de décroissance exponentielle pour les estimations du second momentε (Epsilon)
Une constante pour la stabilité numériqueMomentum
Le taux de décroissance exponentielle pour les estimations du premier momentUse Nesterov
Decay
Facteur d'actualisation pour le gradient historique/à venirMomentum
Le momentum à utiliser pour l'algorithme de descente de gradient RMSPropε (Epsilon)
Valeur pour éviter le dénominateur nulCentered
Aucun paramètre d'optimisateur pour SGD