Zum Inhalt springen

KI-Foto-Upscaling erklärt — wann 2× besser ist als 4×

Tool-Autor & MaintainerVeröffentlicht am 26. Apr. 2026ca. 7 Min. Lesezeit

KI-Upscaling nutzt ein neuronales Netz, das auf Millionen Niedrig-/Hochauflösungs-Paaren trainiert wurde, um plausibles Detail zu erfinden, das Bicubic nicht rekonstruieren kann. Es rettet alte Thumbnails, alte Archivscans und beschnittene Handyfotos. Es kann jedoch keine Detail erfinden, die nie aufgenommen wurden — wählen Sie 2× statt 4×, wenn nicht ein konkreter Grund dagegen spricht.

Was macht KI-Upscaling tatsächlich?

Klassisches Resampling (Bicubic, Lanczos) interpoliert vorhandene Pixel — keine neuen Details. KI-Upscaling lässt ein CNN oder Transformer-Netz laufen, das auf Niedrig-/Hochauflösungs-Paaren trainiert wurde; aus 256×256 wird 512×512. Real-ESRGAN war absichtlich auf degradierte Bilder trainiert und lernt Unschärfe, JPEG, Downsampling rückgängig zu machen.

Wann ist Upscaling das richtige Werkzeug?

Klassische Gewinne: Thumbnail-Rettung, alte CD-Scans, beschnittene Handyfotos. Klassische Verluste: neue Blickwinkel synthesisieren, Text aus unscharfen Fotos lesbar machen, bereits AI-generierte Bilder erneut upscalen.

Warum 2× als sicherer Standard?

Bei 2× sind 4 Eingangspixel pro Ausgang — Halluzinationen begrenzt. Bei 4× sind es 1:16 — 15 von 16 Pixeln müssen erfunden werden, mit unheimlichen Gesichtern und verstümmeltem Text. Lieber zwei 2×-Pässe als ein 4×.

Wie funktioniert das Browser-Modell?

ONNX Real-ESRGAN-x2 (~50 MB), beim ersten Mal geladen und gecached. Inferenz via ONNX Runtime Web (WebAssembly), WebGPU wenn verfügbar (Chrome 113+/Edge 113+/Safari 17+). M2: 1024×1024 → 2048×2048 in ~4 s; iPhone 14: ~12 s.

Realistische Grenzen

Gesichter halluzinieren leicht; winziger Text wird selten lesbar; starke JPEG-Blöcke werden verstärkt; KI-generierte Quellen verstärken Artefakte. Im Zweifel bei 2× bleiben.

Schritte

ca. 1 Min.
  1. Quelldatei ablegen

    JPG/PNG/WebP unter 4 MP einwerfen. Größere Eingaben funktionieren, Inferenzzeit wächst quadratisch.

  2. Skalierung wählen

    Standard 2× für fast alles. 4× nur bei spezifischem Grund.

  3. Inferenz abwarten

    Erstmaliges Modell-Download (~50 MB), danach gecached. M2 ~4 s, iPhone 14 ~12 s.

  4. Vergleichen und herunterladen

    Mit Vorher/Nachher-Slider prüfen. Wirken Gesichter unheimlich → auf 2× zurück oder Upscaling überspringen.

Real-ESRGAN-x2 Inferenzzeiten — drei Eingangsgrößen
Eingabe → AusgabeApple M2 (WebGPU)iPhone 14 (Wasm)Ausgabegröße
256×256 → 512×5120,4 s1,1 s+150 % Bytes
512×512 → 1024×10241,3 s3,8 s+220 % Bytes
1024×1024 → 2048×20484,1 s12,0 s+280 % Bytes
Gemessen mit ONNX Runtime Web 1.21, Real-ESRGAN-x2 (~50 MB), M2 Chrome 139 / iPhone 14 Safari 17, JPG Q90 (2026-04-26).

Häufig gestellte Fragen

  • Geht über 4× hinaus?

    Zwei 2×-Pässe = effektive 4×. Darüber dominieren Artefakte.

  • Warum wirken Gesichter manchmal unheimlich?

    Das Netz weiß nicht, wer abgebildet ist; es füllt die wahrscheinlichsten Gesichtszüge ein.

  • Werden meine Fotos hochgeladen?

    Nein — Modell wird einmalig gecached, alle Inferenzen lokal.

  • Mehrere Dateien stapelweise?

    Ja — Warteschlange, nur die erste zahlt den Cold-Start.

  • Hilft Upscaling gegen JPEG-Artefakte?

    Bei leichten ja; starke Blöcke werden oft verstärkt.

  • Funktioniert es bei KI-generierten Bildern?

    Meist schlecht — Artefakte addieren sich.

Jetzt ausprobieren

ONNX Runtime Web + WebGPU 2× / 4× super-resolution

AI Upscale (Real-ESRGAN) — 100% in-browser

Dieser Artikel enthält KI-Übersetzungen. Bitte Fehler melden.

Wir messen anonyme Nutzung mit cookieloser Analyse. Siehe unsere Datenschutzerklärung.