Lemya Oumertem (2025) New hybrid conjugate gradient method for mode function estimation. University of souk ahras
Publications Scientifiques
Important: Cette page est gelée. Les nouveaux documents sont maintenant dans le dépôt numérique DSpace
Résumé
L\'optimisation sans contrainte est une technique utilisée pour trouver la meilleure solution possible ou la valeur optimale pour un problème donné, souvent dans le contexte de la minimisation ou de la maximisation d\'une fonction. Ces méthodes sont fondamentales dans divers domaines tels que l\'ingénierie, l\'économie, l\'apprentissage automatique et la recherche opérationnelle.
Les méthodes de gradient conjuguées sont des méthodes très importantes pour résoudre les problèmes d\'optimisation sans contrainte, en particulier lorsque la dimension est grande. Dans cette thèse, en se basant sur la méthode hybride de gradient conjuguée, une nouvelle famille de méthodes de gradient est proposée pour résoudre les problèmes d\'optimisation sans contrainte.
En utilisant les conditions de recherche linéaire de Wolfe, ces modifications visent à améliorer les caractéristiques de convergence des algorithmes et à accélérer la direction de descente. Les résultats numériques de nos études offrent des preuves solides de la robustesse et de l\'efficacité de ces nouvelles méthodes par rapport aux méthodes de gradient conjuguées existantes.
Nous avons mené des études numériques approfondies pour valider nos méthodes proposées. Nous avons démontré, à travers des tests numériques, que les méthodes suggérées sont plus efficaces et performantes que les algorithmes combinés, après avoir démontré leur convergence à l\'aide de fonctions expérimentales.
De plus, les algorithmes proposés ont été étendus pour aborder des défis en statistiques non paramétriques, en se concentrant spécifiquement sur les problèmes liés à la fonction de mode.
Mots clés: Méthode de gradient conjugué, Convergence globale, Recherche linéaire inexacte, Comparaisons numériques, Fonction de mode, Estimateur à noyau.
Les méthodes de gradient conjuguées sont des méthodes très importantes pour résoudre les problèmes d\'optimisation sans contrainte, en particulier lorsque la dimension est grande. Dans cette thèse, en se basant sur la méthode hybride de gradient conjuguée, une nouvelle famille de méthodes de gradient est proposée pour résoudre les problèmes d\'optimisation sans contrainte.
En utilisant les conditions de recherche linéaire de Wolfe, ces modifications visent à améliorer les caractéristiques de convergence des algorithmes et à accélérer la direction de descente. Les résultats numériques de nos études offrent des preuves solides de la robustesse et de l\'efficacité de ces nouvelles méthodes par rapport aux méthodes de gradient conjuguées existantes.
Nous avons mené des études numériques approfondies pour valider nos méthodes proposées. Nous avons démontré, à travers des tests numériques, que les méthodes suggérées sont plus efficaces et performantes que les algorithmes combinés, après avoir démontré leur convergence à l\'aide de fonctions expérimentales.
De plus, les algorithmes proposés ont été étendus pour aborder des défis en statistiques non paramétriques, en se concentrant spécifiquement sur les problèmes liés à la fonction de mode.
Mots clés: Méthode de gradient conjugué, Convergence globale, Recherche linéaire inexacte, Comparaisons numériques, Fonction de mode, Estimateur à noyau.
Information
Item Type | Thesis |
---|---|
Divisions |
» Laboratoire d’Informatique et Mathématiques » Faculté des Sciences et de la Technologie |
ePrint ID | 5433 |
Date Deposited | 2025-06-17 |
Further Information | Google Scholar |
URI | https://univ-soukahras.dz/fr/publication/article/5433 |
BibTex
@phdthesis{uniusa5433,
title={New hybrid conjugate gradient method for mode function estimation},
author={Lemya Oumertem},
year={2025},
school={University of souk ahras}
}
title={New hybrid conjugate gradient method for mode function estimation},
author={Lemya Oumertem},
year={2025},
school={University of souk ahras}
}