Différences temporelles de Kalman: Cas déterministe

Résumé : Un des thèmes importants de l'apprentissage par renforcement est l'approximation en ligne de la fonction de valeur. En plus de leur capacité à prendre en compte de grands espaces d'état, les algorithmes associés devraient présenter certaines caractéristiques comme un apprentissage rapide, la faculté de traquer la solution plutôt que de converger vers elle (particulièrement en raison de l'entrelacement entre contrôle et apprentissage) ou encore la gestion de l'incertitude relative aux estimations faites. Dans cette optique, nous introduisons un cadre de travail général inspiré du filtrage de Kalman que nous nommons différences temporelles de Kalman. Une forme d'apprentissage actif utilisant l'information d'incertitude est également introduite, et comparaison est faite à l'état de l'art sur des problèmes classiques.
Document type :
Journal articles
Complete list of metadatas

https://hal-supelec.archives-ouvertes.fr/hal-00512093
Contributor : Sébastien van Luchene <>
Submitted on : Friday, August 27, 2010 - 12:05:38 PM
Last modification on : Wednesday, February 13, 2019 - 5:20:08 PM

Links full text

Identifiers

Collections

Citation

Matthieu Geist, Olivier Pietquin, Gabriel Fricout. Différences temporelles de Kalman: Cas déterministe. Revue des Sciences et Technologies de l'Information - Série RIA : Revue d'Intelligence Artificielle, Lavoisier, 2010, 24 (4), pp.423-443. ⟨10.3166/ria.24.423-443⟩. ⟨hal-00512093⟩

Share

Metrics

Record views

97