Publications Scientifiques

Important: Cette page est gelée. Les nouveaux documents sont maintenant dans le dépôt numérique  DSpace


Résumé

Dans cette thèse, nous avons prouvé la direction de descente de la méthode du gradient conjugué
qui est une combinaison convexe de la méthode de Fletcher et Reeves (FR), et de la
méthode de Polyak, Polak et Ribière (PRP).
Et nous présentons une nouvelle méthode hybride pour résoudre un problème d’optimisation
non linéaire sans contrainte, en utilisant une méthode de gradient conjugué qui est une combinaison
convexe de la méthode du gradient conjugué Liu et Storey (LS), et de la méthode du
gradient conjugué Hager et Zhang (HZ).
La nouvelle méthode proposée vérifie la propriété de descente suffisante avec la recherche linéaire
inexacte de Wolfe-Powell forte, et la globale convergence avec la recherche linéaire inexacte de
Wolfe-Powell forte.
À la fin de cette thèse, nous illustrons notre méthode en donnant quelques exemples numériques.
Mots clés:
Gradient conjugué, Convergence Globale, Algorithme, Optimisation sans contrainte, La recherche
linéaire.


BibTex

@phdthesis{uniusa2919,
    title={Unconstrained nonlinear optimization},
    author={Nasreddine CHENNA},
    year={2022},
    school={university of souk ahras}
}