Publications Scientifiques

Important: Cette page est gelée. Les nouveaux documents sont maintenant dans le dépôt numérique  DSpace


Résumé

Les méthodes de gradient conjugué non linéaires représentent une contribution majeure à la résolution de problèmes d’optimisation sans contraintes, notamment de grande taille. Dans cette thèse, nous développons certains paramètres de gradient conjugués, ainsi qu’étudier la convergence globale et la propriété de descente suffisante de ces nouvelles méthodes, c’est le cas de l’utilisation de la recherche lineaire de Wolfe forte. Les résultats numériques montrent que les méthodes proposées sont efficaces et robustes pour minimiser certains problèmes d’optimisation sans contrainte.

De plus, les algorithmes proposés ont été étendus pour résoudre le problème des statistiques non paramétriques, en particulier pour résoudre le problème de la fonction de mode et le problème de la fonction de régression du modèle conditionnel.

Mots clés: Méthode du gradient conjugué, Recherche linéaire inexactes, Condition de descente, Convergence globale, Comparaisons numériques , Foction de mode , Modèle de régression conditionnel, Estimateur à noyau.


BibTex

@phdthesis{uniusa5187,
    title={Usingconjugategradientmethods for regression function},
    author={Abdelhamid MEHAMDIA},
    year={2024},
    school={university of souk ahras}
}