Même les meilleurs modèles d’upscaling actuels (ESRGAN, Stable Diffusion, etc.) ne sont pas parfaits. Ils peuvent parfois créer des détails qui n’ont jamais existé dans l’image originale, déformer des objets ou produire des résultats incohérents. On parle alors d’hallucinations et d’artefacts.
1. Les principaux artefacts que l’on rencontre
- Hallucinations : le modèle invente des détails plausibles mais faux (nouveaux cheveux, faux boutons sur une chemise, textures qui n’existent pas).
- Incohérence temporelle (surtout en vidéo) : les détails changent d’une image à l’autre, ce qui crée un effet de scintillement.
- Déformations : visages légèrement tordus, lettres illisibles, motifs géométriques qui se déforment.
- Sur-nettoyage ou sur-affûtage : l’image devient trop lisse ou au contraire trop tranchante et artificielle.
2. Pourquoi ces artefacts apparaissent-ils ?
Les modèles génératifs sont entraînés à produire des images qui paraissent réalistes, pas nécessairement fidèles à l’original.
Quand l’information manquante est très importante, le modèle « comble » les trous avec ce qu’il connaît le mieux (ce qu’il a vu pendant son entraînement), même si ce n’est pas exact.
Plus l’image de départ est dégradée ou compressée, plus le modèle doit inventer, et plus le risque d’hallucination augmente.
3. Comment maîtriser ces artefacts aujourd’hui
Plusieurs techniques permettent de limiter fortement ces problèmes :
- Utiliser des contrôles supplémentaires (ControlNet, IP-Adapter, image de référence) pour guider fortement le modèle.
- Ajuster les paramètres de génération (force de guidance, nombre d’étapes de denoising).
- Combiner plusieurs modèles (par exemple un modèle « fidelity-first » pour la structure + un modèle créatif pour les textures).
- Appliquer un post-traitement (restauration de visages, correction de cohérence).
- Utiliser des prompts négatifs pour éviter certains types d’artefacts.
En résumé
L’upscaling IA n’est pas magique. Il reste un compromis entre créativité et fidélité à l’image originale.
Comprendre ces limites permet de mieux choisir son outil et ses réglages selon l’usage (photo artistique, restauration fidèle, vidéo, impression, etc.).
Dans le dernier article de la série, on fait le bilan concret : ce que l’IA change vraiment en 2026 et ce qui reste encore à améliorer.