Inférence bayésienne moderne : du MAP aux modèles probabilistes profonds
L’approche bayésienne classique que nous avons vue dans l’article 3 utilisait surtout le Maximum A Posteriori (MAP). Cette méthode permettait déjà d’obtenir une bonne image, mais elle avait une limite importante : elle ne donnait qu’une seule réponse (la plus probable), sans dire à quel point le modèle était sûr de lui.
Les méthodes modernes vont beaucoup plus loin : au lieu de chercher seulement la meilleure image, elles estiment toute la distribution de probabilités des images possibles.
1. Du MAP à l’inférence complète
Le MAP cherche uniquement la solution la plus probable.
Les approches modernes cherchent à estimer toute la distribution des images haute résolution possibles qui pourraient correspondre à l’image basse résolution observée.
Cela permet non seulement d’obtenir la meilleure image, mais aussi de savoir dans quelles zones le modèle est très sûr de lui et dans quelles zones il hésite (et donc risque d’inventer).
2. L’inférence variationnelle : une approximation utile
Estimer exactement toute la distribution est souvent trop compliqué.
Les chercheurs utilisent alors une technique appelée inférence variationnelle : ils remplacent la vraie distribution (très complexe) par une distribution plus simple et plus facile à calculer.
On ajuste ensuite cette distribution simple pour qu’elle ressemble le plus possible à la vraie distribution. C’est une approximation, mais elle est très efficace en pratique.
3. Les modèles probabilistes profonds
Les modèles de diffusion et certains réseaux modernes (comme les VAEs) sont des exemples d’inférence bayésienne moderne.
Ils ne cherchent pas seulement une seule image « optimale » : ils apprennent une distribution complète de solutions plausibles.
Cela permet de générer plusieurs versions légèrement différentes d’une même image basse résolution, toutes réalistes et cohérentes.
En résumé
L’inférence bayésienne moderne passe d’un simple « meilleur pari » (le MAP) à une véritable estimation de toutes les solutions possibles.
Cette approche permet non seulement d’obtenir de meilleurs résultats, mais aussi de mieux comprendre l’incertitude du modèle.
Dans le prochain article, on aborde un sujet très concret : les limites et les artefacts de l’upscaling IA (hallucinations, incohérences, etc.) et comment les maîtriser.