BDD

Modèle

Analyse d'ensembles Meta-analyse d'algorithmes

LPSA – Analyse de côtes

Veuillez glisser-déposer une base de données brute (CSV) ou formattée (JSON) n'importe où sur la page.

Victoire domicile

Match nul

Victoire extérieur

Paramètres de l'optimiseur

ρ (Rho)

Diminution du taux d'apprentissage à chaque mise à jour

ε (Epsilon)

Constante utilisée pour mieux conditionner la mise à jour du gradient

Initial accumulator

Valeur de départ pour les accumulateurs, doit être positive

β1 (Beta 1)

Le taux de décroissance exponentielle pour les estimations du premier moment

β2 (Beta 2)

Le taux de décroissance exponentielle pour les estimations du second moment

ε (Epsilon)

Une constante pour la stabilité numérique

Decay

Diminution du taux d’apprentissage à chaque mise à jour

β1 (Beta 1)

Le taux de décroissance exponentielle pour les estimations du premier moment

β2 (Beta 2)

Le taux de décroissance exponentielle pour les estimations du second moment

ε (Epsilon)

Une constante pour la stabilité numérique

Momentum

Le taux de décroissance exponentielle pour les estimations du premier moment

Use Nesterov

Utiliser le momentum de Nesterov

Decay

Facteur d'actualisation pour le gradient historique/à venir

Momentum

Le momentum à utiliser pour l'algorithme de descente de gradient RMSProp

ε (Epsilon)

Valeur pour éviter le dénominateur nul

Centered

Gradients normalisés par la variance estimée du gradient si actif
Aucun paramètre d'optimisateur pour SGD
ℹ️