Descente de gradient
Dans les pages 108 à 110 du livre de Stewart on présente une méthode de minimisation, connue sous le nom de "descente de gradient". En gros, on part d'un point puis on fait des pas dans la direction oposée au gradient. La longueur du pas est celle qui permet de minimiser la valeur de la fonction objectif (si elle existe...). Ci après, une implémentation très naïve de la chose, en SAGEMath.
L'implémentation ci bas fait appel à la fonction find_local_minimum(...)
qui retourne une liste de valeurs.
L'exemple utilisé est celui de la page 109 - 110.
Voyons maintenant l'exercice n.31, section 3.1 (celui du devoir).
D'abord avec le point de départ , le critère d'arêt est que la norme du gradient soit inférieure à .
À partir du point (1,1)
Les choses sont très différentes : la fonction n'a pas de minimums locaux, la descente ne s'arête jamais. L'algorithme ne converge pas (on peut essayer de l'exécuter, voir ce que ça donne)
Voyons la surface, on comprendra ce qui est arrivé.
Multiplicateurs de Lagrange (ex. 38, section 3.3)
On doit maximiser avec la contrainte . Voyons quelques courbes de niveau de la fonction objectif, ainsi que la courbe de contrainte
Exercice n.25, page 246
Il s'agit de donner des approximations de la solution de , avec . On utilise la méthode d'Euler.
On évalue maintenant l'erreur commise entre les approximations et la "vraie valeur"
La question n. 26, section 6.3
L'équation différentielle s'écrit , il s'agit d'une équation à variables séparables. On peut intégrar sans trop de mal et trouver la solution exacte. Faisons le avec SAGE
Les courbes solution sont donc les courbes dessinons-en queleques unes
Exercice n. 31, section 6.3.
Il s'agit de trouver les courbes orthogonales à la famille de courbes . Les courbes de la famille cherchée ont pour équation . Voyons quelques courbes de la famille originale, et de la famille des trajectoires orthogonales.