KI-Foto-Upscaling erklärt — wann 2× besser ist als 4×
Tomoda HinataTool-Autor & MaintainerVeröffentlicht am 26. Apr. 2026ca. 7 Min. Lesezeit
KI-Upscaling nutzt ein neuronales Netz, das auf Millionen Niedrig-/Hochauflösungs-Paaren trainiert wurde, um plausibles Detail zu erfinden, das Bicubic nicht rekonstruieren kann. Es rettet alte Thumbnails, alte Archivscans und beschnittene Handyfotos. Es kann jedoch keine Detail erfinden, die nie aufgenommen wurden — wählen Sie 2× statt 4×, wenn nicht ein konkreter Grund dagegen spricht.
Im Leitfaden verwendete Tools
Was macht KI-Upscaling tatsächlich?
Klassisches Resampling (Bicubic, Lanczos) interpoliert vorhandene Pixel — keine neuen Details. KI-Upscaling lässt ein CNN oder Transformer-Netz laufen, das auf Niedrig-/Hochauflösungs-Paaren trainiert wurde; aus 256×256 wird 512×512. Real-ESRGAN war absichtlich auf degradierte Bilder trainiert und lernt Unschärfe, JPEG, Downsampling rückgängig zu machen.
Wann ist Upscaling das richtige Werkzeug?
Klassische Gewinne: Thumbnail-Rettung, alte CD-Scans, beschnittene Handyfotos. Klassische Verluste: neue Blickwinkel synthesisieren, Text aus unscharfen Fotos lesbar machen, bereits AI-generierte Bilder erneut upscalen.
Warum 2× als sicherer Standard?
Bei 2× sind 4 Eingangspixel pro Ausgang — Halluzinationen begrenzt. Bei 4× sind es 1:16 — 15 von 16 Pixeln müssen erfunden werden, mit unheimlichen Gesichtern und verstümmeltem Text. Lieber zwei 2×-Pässe als ein 4×.
Wie funktioniert das Browser-Modell?
ONNX Real-ESRGAN-x2 (~50 MB), beim ersten Mal geladen und gecached. Inferenz via ONNX Runtime Web (WebAssembly), WebGPU wenn verfügbar (Chrome 113+/Edge 113+/Safari 17+). M2: 1024×1024 → 2048×2048 in ~4 s; iPhone 14: ~12 s.
Realistische Grenzen
Gesichter halluzinieren leicht; winziger Text wird selten lesbar; starke JPEG-Blöcke werden verstärkt; KI-generierte Quellen verstärken Artefakte. Im Zweifel bei 2× bleiben.
Schritte
ca. 1 Min.Quelldatei ablegen
JPG/PNG/WebP unter 4 MP einwerfen. Größere Eingaben funktionieren, Inferenzzeit wächst quadratisch.
Skalierung wählen
Standard 2× für fast alles. 4× nur bei spezifischem Grund.
Inferenz abwarten
Erstmaliges Modell-Download (~50 MB), danach gecached. M2 ~4 s, iPhone 14 ~12 s.
Vergleichen und herunterladen
Mit Vorher/Nachher-Slider prüfen. Wirken Gesichter unheimlich → auf 2× zurück oder Upscaling überspringen.
| Eingabe → Ausgabe | Apple M2 (WebGPU) | iPhone 14 (Wasm) | Ausgabegröße |
|---|---|---|---|
| 256×256 → 512×512 | 0,4 s | 1,1 s | +150 % Bytes |
| 512×512 → 1024×1024 | 1,3 s | 3,8 s | +220 % Bytes |
| 1024×1024 → 2048×2048 | 4,1 s | 12,0 s | +280 % Bytes |
Häufig gestellte Fragen
Geht über 4× hinaus?
Zwei 2×-Pässe = effektive 4×. Darüber dominieren Artefakte.
Warum wirken Gesichter manchmal unheimlich?
Das Netz weiß nicht, wer abgebildet ist; es füllt die wahrscheinlichsten Gesichtszüge ein.
Werden meine Fotos hochgeladen?
Nein — Modell wird einmalig gecached, alle Inferenzen lokal.
Mehrere Dateien stapelweise?
Ja — Warteschlange, nur die erste zahlt den Cold-Start.
Hilft Upscaling gegen JPEG-Artefakte?
Bei leichten ja; starke Blöcke werden oft verstärkt.
Funktioniert es bei KI-generierten Bildern?
Meist schlecht — Artefakte addieren sich.
Jetzt ausprobieren
ONNX Runtime Web + WebGPU 2× / 4× super-resolution
AI Upscale (Real-ESRGAN) — 100% in-browserDieser Artikel enthält KI-Übersetzungen. Bitte Fehler melden.