Aller au contenu

Upscaling photo par IA expliqué — quand 2× bat 4×

Auteur et mainteneur de l'outilPublié le 26 avr. 20267 min de lecture

L'upscaling IA utilise un réseau neuronal entraîné sur des millions de paires basse/haute résolution pour inventer du détail plausible que le bicubique ne sait pas reconstruire. Il sauve d'anciennes vignettes, récupère des photos de smartphone recadrées, prépare de petites archives pour l'impression. Il ne récupère pas ce qui n'a jamais été capté, et en 4× peut produire des visages dérangeants — préférez 2× sauf raison spécifique.

Ce que fait vraiment l'upscaling IA

Le rééchantillonnage classique (bicubique, Lanczos) interpole sans inventer. L'IA fait tourner un CNN/Transformer entraîné sur des paires basse/haute résolution ; entrée 256×256 → sortie 512×512. Real-ESRGAN s'est entraîné sur des images dégradées et apprend à inverser flou, JPEG et sous-échantillonnage.

Quand l'upscaling est-il l'outil juste ?

Victoires classiques : sauver une vignette, agrandir un vieux scan, rattraper un recadrage smartphone. Échecs classiques : inventer un nouvel angle de vue, lire le texte d'une photo floue, ré-upscaler une image déjà générée par IA.

Pourquoi 2× par défaut ?

À 2× le réseau dispose de 4 pixels d'entrée par sortie ; à 4× il doit inventer 15/16 pixels, d'où visages dérangeants. Si besoin 4×, enchaînez deux passes 2×.

Comment fonctionne le modèle navigateur ?

Real-ESRGAN-x2 ONNX (~50 Mo), téléchargé au premier usage puis mis en cache. Inférence ONNX Runtime Web en WebAssembly avec WebGPU quand disponible (Chrome 113+/Edge 113+/Safari 17+). M2 : 1024×1024 → 2048×2048 en ~4 s ; iPhone 14 ~12 s.

Limites réalistes

Visages : 4× peut décaler subtilement les traits. Texte : minuscule rarement lisible. Forte compression JPEG : blocs amplifiés. Source IA : artefacts cumulés. Dans le doute, on s'arrête à 2×.

Étapes

≈ 1 min
  1. Déposer la source

    JPG/PNG/WebP < 4 Mpx ; plus gros possible mais temps quadratique.

  2. Choisir le facteur

    2× par défaut ; 4× seulement avec raison et hors petits visages.

  3. Attendre l'inférence

    1ère fois : modèle ~50 Mo téléchargé puis cache. M2 ~4 s, iPhone 14 ~12 s.

  4. Comparer et télécharger

    Slider avant/après. Si un visage est étrange : revenir à 2× ou abandonner.

Real-ESRGAN-x2 — trois tailles d'entrée
Entrée → SortieApple M2 (WebGPU)iPhone 14 (Wasm)Taille sortie
256×256 → 512×5120,4 s1,1 s+150 % octets
512×512 → 1024×10241,3 s3,8 s+220 % octets
1024×1024 → 2048×20484,1 s12,0 s+280 % octets
ONNX Runtime Web 1.21, Real-ESRGAN-x2 (~50 Mo), M2 Chrome 139 / iPhone 14 Safari 17, JPG Q90 (2026-04-26).

Questions fréquentes

  • Au-delà de 4× possible ?

    Enchaîner deux 2× = 4× effectif ; au-delà les artefacts dominent.

  • Pourquoi les visages parfois bizarres ?

    Le réseau ignore qui est sur l'image et remplit selon le contexte.

  • Mes photos sont-elles envoyées ?

    Non — modèle en cache, inférence locale.

  • Plusieurs fichiers en lot ?

    Oui — file d'attente, cold-start sur la première seulement.

  • Utile contre les artefacts JPEG ?

    Compression légère oui ; blocs forts souvent amplifiés.

  • Sur images générées par IA ?

    Souvent mauvais — artefacts cumulés.

Essayer maintenant

ONNX Runtime Web + WebGPU 2× / 4× super-resolution

AI Upscale (Real-ESRGAN) — 100% in-browser

Cet article contient une traduction assistée par IA. Signalez toute erreur.

Nous mesurons l'usage anonyme avec un analytique sans cookies. Voir notre politique de confidentialité.