Réponse à la requête "normalized estimation error squared"
La "normalized estimation error squared" est une mesure couramment utilisée en statistiques pour évaluer la qualité d'une estimation. Cette mesure est calculée en normalisant l'erreur d'estimation par rapport à la variabilité des données d'entrée. Dans cette réponse, nous allons explorer différents articles scientifiques pertinents qui discutent de la "normalized estimation error squared".
Normalized root mean squared error of the estimated parameter
Dans un article publié sur ResearchGate, intitulé "Normalized root mean squared error of the estimated parameter a in the logistic map as a function of the number of observations in logarithmic scale for N", les auteurs présentent une analyse de la "normalized root mean squared error" de l'estimation du paramètre a dans la carte logistique en fonction du nombre d'observations. Les résultats montrent que la "normalized root mean squared error" diminue à mesure que le nombre d'observations augmente. Les auteurs ont conclu que cette mesure est utile pour évaluer la qualité de la méthode d'estimation utilisée pour résoudre ce problème (www.researchgate.net/figure...).
Comparaison de techniques de filtrage
Dans une étude intitulée "Average estimation error for varying initial state" publiée sur ResearchGate, les auteurs ont comparé trois techniques de filtrage pour résoudre un problème d'estimation d'état non linéaire en utilisant la "normalized mean squared error". Les résultats ont montré que l'estimation de l'état initial a un effet significatif sur la qualité de l'estimation finale. Les auteurs ont également souligné l'importance de l'utilisation de la "normalized mean squared error" pour comparer les performances des différentes techniques de filtrage (www.researchgate.net/figure...).
Approximation fonctionnelle et régression non linéaire
Dans un article intitulé "Function Approximation and Nonlinear Regression" publié sur MathWorks, les auteurs ont utilisé la "mean squared normalized error" pour évaluer la performance d'un ajustement de réseau neuronal pour estimer le pourcentage de graisse corporelle sur la base de mesures anatomiques. Les résultats ont montré que la performance de l'estimation dépendait de la qualité des données d'entrée et de la taille du réseau neuronal utilisé (www.mathworks.com/help/deep...).
Estimation de l'indice de valeur extrême
Dans un article intitulé "Double-thresholded estimator of extreme value index" publié dans la revue Journal of Statistical Planning and Inference, les auteurs ont utilisé la "mean squared error" pour comparer les performances d'un nouvel estimateur de seuil double avec un estimateur moment. Les résultats ont montré que l'estimateur à double seuil avait une plus grande efficacité et une plus faible variance que l'estimateur moment. Les auteurs ont souligné qu'il était important d'utiliser des mesures de qualité d'estimation pour évaluer les performances des différents estimateurs (www.sciencedirect.com/scien...).
Schéma Ninomiya-Victoir
Dans un article intitulé "Ninomiya-Victoir scheme: strong convergence, asymptotics for the normalized error" publié sur le site web de l'école Polytechnique, les auteurs ont exploré la convergence d'un schéma de Monte Carlo pour l'estimation de processus stochastiques. Les auteurs ont utilisé la "normalized error" pour évaluer la performance de l'estimation. Les résultats ont montré que le schéma de Ninomiya-Victoir était convergent avec une vitesse d'ordre 1/2, et que la "normalized error" se comportait asymptotiquement comme une variable aléatoire normale centrée (pastel.archives-ouvertes.fr...).
Enhancement de la parole en utilisant l'analyse en composantes principales et la régression linéaire
Dans un article intitulé "Speech Enhancement Using Principal Component Analysis and Linear Regression" publié sur CiteseerX, les auteurs ont utilisé la "normalized estimation error" pour évaluer la performance d'un algorithme de suppression de bruit pour la transmission de la parole. Les auteurs ont expliqué comment l'erreur d'estimation a été décomposée en deux parties, ce qui a permis de mieux comprendre les sources d'erreur et de les corriger plus efficacement. Les résultats ont montré que l'algorithme proposé améliorait significativement la qualité de la parole transmise (citeseerx.ist.psu.edu/docum...).
Augmentation de filtres Bayesiens avec des temps hétérogènes dépendants du contexte
Dans une thèse intitulée "Augmenting Bayes Filters with Context-Dependent Time-Heterogeneous Dynamics" et publiée sur le site web de l'Université de Limoges, l'auteur a utilisé la "mean squared error" pour évaluer la performance de différents filtres Bayesiens pour l'estimation d'états non linéaires. Les résultats ont montré que l'ajout de temps hétérogènes dépendants du contexte améliorait significativement la qualité de l'estimation, mais que le choix du filtre Bayesien avait un impact important sur la performance globale (www.theses.fr/2015ISAT0045.pdf).
Estimation non paramétrique d'un processus de bruit de tir
Dans un article intitulé "Nonparametric estimation of a shot-noise process" publié sur HAL-Inria, les auteurs ont utilisé la "normalized vector of errors" pour comparer les performances de différents estimateurs pour un processus de bruit de tir. Les résultats ont montré que la "normalized vector of errors" pouvait être estimée par un vecteur gaussien centré corrélé. Les auteurs ont souligné que cette mesure était utile pour évaluer les performances des estimateurs non paramétriques (hal.inria.fr/hal-01418963/d...).
En conclusion, la "normalized estimation error squared" est une mesure couramment utilisée pour évaluer la qualité des estimations statistiques. Les différents articles scientifiques examinés ont montré que cette mesure était souvent utilisée pour évaluer la performance de différentes techniques d'estimation dans des problèmes divers tels que la régression non linéaire, la suppression de bruit, l'estimation d'états non linéaires, et la modélisation de processus stochastiques. Les résultats ont montré que la "normalized estimation error squared" était également utile pour comparer les performances des différents algorithmes d'estimation, et pour comprendre les sources d'erreur et les corriger plus efficacement.
La normalized estimation error squared (NEES) est une mesure de la qualité de l'estimation, qui est une méthode utilisée pour estimer des paramètres. Elle est préférée car elle est plus précise et plus fiable que d'autres méthodes d'estimation, car elle permet de déterminer le niveau d'erreur associé à l'estimation. La NEES est calculée en calculant la somme des erreurs quadratiques normalisées à partir des paramètres estimés par rapport aux paramètres réels.
Une façon couramment utilisée de mesurer la précision de l'estimation est de mesurer la variance de l'erreur d'estimation. Cependant, la NEES fournit une mesure plus précise et plus fiable de la qualité de l'estimation. Elle a été utilisée pour évaluer la performance des algorithmes d'estimation, ce qui est utile pour améliorer la précision des algorithmes.
D'un point de vue personnel, j'ai récemment utilisé la NEES pour évaluer le rendement d'un algorithme que j'ai codé. L'algorithme était conçu pour estimer des paramètres pour un système dynamique donné et j'ai utilisé la NEES pour mesurer le degré de précision avec lequel l'algorithme estimerait les paramètres. En utilisant la NEES, j'ai pu déterminer que mon algorithme était capable d'estimer les paramètres avec une grande précision.