Upscaling photo par IA expliqué — quand 2× bat 4×
Tomoda HinataAuteur et mainteneur de l'outilPublié le 26 avr. 20267 min de lecture
L'upscaling IA utilise un réseau neuronal entraîné sur des millions de paires basse/haute résolution pour inventer du détail plausible que le bicubique ne sait pas reconstruire. Il sauve d'anciennes vignettes, récupère des photos de smartphone recadrées, prépare de petites archives pour l'impression. Il ne récupère pas ce qui n'a jamais été capté, et en 4× peut produire des visages dérangeants — préférez 2× sauf raison spécifique.
Outils utilisés dans ce guide
Ce que fait vraiment l'upscaling IA
Le rééchantillonnage classique (bicubique, Lanczos) interpole sans inventer. L'IA fait tourner un CNN/Transformer entraîné sur des paires basse/haute résolution ; entrée 256×256 → sortie 512×512. Real-ESRGAN s'est entraîné sur des images dégradées et apprend à inverser flou, JPEG et sous-échantillonnage.
Quand l'upscaling est-il l'outil juste ?
Victoires classiques : sauver une vignette, agrandir un vieux scan, rattraper un recadrage smartphone. Échecs classiques : inventer un nouvel angle de vue, lire le texte d'une photo floue, ré-upscaler une image déjà générée par IA.
Pourquoi 2× par défaut ?
À 2× le réseau dispose de 4 pixels d'entrée par sortie ; à 4× il doit inventer 15/16 pixels, d'où visages dérangeants. Si besoin 4×, enchaînez deux passes 2×.
Limites réalistes
Visages : 4× peut décaler subtilement les traits. Texte : minuscule rarement lisible. Forte compression JPEG : blocs amplifiés. Source IA : artefacts cumulés. Dans le doute, on s'arrête à 2×.
Étapes
≈ 1 minDéposer la source
JPG/PNG/WebP < 4 Mpx ; plus gros possible mais temps quadratique.
Choisir le facteur
2× par défaut ; 4× seulement avec raison et hors petits visages.
Attendre l'inférence
1ère fois : modèle ~50 Mo téléchargé puis cache. M2 ~4 s, iPhone 14 ~12 s.
Comparer et télécharger
Slider avant/après. Si un visage est étrange : revenir à 2× ou abandonner.
| Entrée → Sortie | Apple M2 (WebGPU) | iPhone 14 (Wasm) | Taille sortie |
|---|---|---|---|
| 256×256 → 512×512 | 0,4 s | 1,1 s | +150 % octets |
| 512×512 → 1024×1024 | 1,3 s | 3,8 s | +220 % octets |
| 1024×1024 → 2048×2048 | 4,1 s | 12,0 s | +280 % octets |
Questions fréquentes
Au-delà de 4× possible ?
Enchaîner deux 2× = 4× effectif ; au-delà les artefacts dominent.
Pourquoi les visages parfois bizarres ?
Le réseau ignore qui est sur l'image et remplit selon le contexte.
Mes photos sont-elles envoyées ?
Non — modèle en cache, inférence locale.
Plusieurs fichiers en lot ?
Oui — file d'attente, cold-start sur la première seulement.
Utile contre les artefacts JPEG ?
Compression légère oui ; blocs forts souvent amplifiés.
Sur images générées par IA ?
Souvent mauvais — artefacts cumulés.
Essayer maintenant
ONNX Runtime Web + WebGPU 2× / 4× super-resolution
AI Upscale (Real-ESRGAN) — 100% in-browserCet article contient une traduction assistée par IA. Signalez toute erreur.