on considère que le simplexe initial est plus petit que le bassin d’attraction
coût : pour la fonction de Rosenbrock : ~20% (ça marche toujours !)
Globalisation : recherche du minimum global
Point de vue Ré-initialisation : GBNM Évolutionnaire :
Globalisation par ré-initialisation probabilisée
chaque fois q’un minimum local est trouvé il est enregistré
le prochain point initial est choisit de tel sorte à ne pas échantillonner des régions déjà connues : visiter différents bassins d’attraction, sans connaître le nombre de redémarrages à priori
travail à coût fixé
redémarrage avec une caractéristique aléatoire-biaisée
Estimation de la probabilité de ne pas avoir échantillonné un point (x)
Estimation de la probabilité de ne pas avoir échantillonné un point (x) (2)
Ré-initialisation probabilisée
pour le calcul de la probabilité pi , on ne garde comme xi que les points initiaux
maximisation de par tirage aléatoire de nb_random_points : parmi nb_random_points aléatoires, trouver celui qui a la plus haute probabilité de n’avoir pas été échantillonné auparavant
Ré-initialisation probabilisée (2)
si nb_random_points=1 : aléatoire
si nb_random_points=grand : motif régulier
(si on connaît le nb. de redémarrages grille)
si nb_random_points petit, > 1 (3 à 10) : aléatoire/biaisée
Articulation de :
Articulation de :
3 tests de convergence :
Small
Flat
Degenerated
3 formes de ré-initialisation :
Probabilistic
Large Test
Small Test
Caractéristiques des recherches locales : vitesse, précision Nelder-Mead
Caractéristiques des recherches locales : vitesse, précision Nelder-Mead
Amélioration de la méthode de N-M :
Prise en compte de bornes par projection
Détection et traitement des dégénérescences du simplexe pendant la recherche
Test d’optimalité sur les bornes
Globalisée par ré-initialisation stratégie hybride en série : local-global
théorie classique des stratifiés et flambement linéaire
Maximisation de charge critique de flambement 48 couches : 12 variables
Conclusions
GBNM : un algorithme pratique pour les problèmes de l’ingénieur :
travail à coût fixé : nombre d’analyses défini a priori ;
globalisation par ré-initialisation probabilisées, pour ne pas échantillonner des régions déjà connues, sans connaître le nombre de redémarrages à priori ;
Nelder-Mead amélioré pour les recherches locales :
méthode d’ordre zéro, locale et sans bornes vitesse, précision ;
détection et ré-initialisation en cas de dégénérescence ;
prise en compte des bornes par projection et des contraintes par pénalisation adaptative ;
test d’optimalité, sur les bornes.
Conclusions (2)
La stratégie la plus robuste de ré-initialisation probabilisée est un compromis entre ré-initialisation aléatoire et ré-initialisation à intervalles réguliers ;
Pour les problèmes de taille moyenne à bas coût, la méthode GBNM a une plus haute précision que les algorithmes évolutionnaires ;
La globalisation par ré-initialisation probabilisée n'est pas restrictive à l’algorithme de Nelder-Mead. Elle peut être appliquée à d’autres optimiseurs locaux.