Saltar al contenido

Upscaling de fotos con IA explicado — cuándo 2× supera a 4×

Autor y mantenedor de la herramientaPublicado el 26 abr 20267 min de lectura

El upscaling con IA usa una red neuronal entrenada con millones de pares baja/alta resolución para inventar detalle plausible que el bicúbico no recupera. Rescata miniaturas viejas, fotos de móvil recortadas y escaneos de archivo pequeños para impresión. No recupera detalle que nunca se capturó y, en 4×, puede generar caras inquietantes — elige 2× salvo motivo concreto.

¿Qué hace de verdad el upscaling con IA?

El resampleo clásico (bicúbico, Lanczos) sólo interpola píxeles existentes. El upscaling con IA ejecuta una red CNN o Transformer entrenada con pares baja/alta resolución; entrada 256×256 → salida 512×512 con píxeles estadísticamente coherentes con el entrenamiento. Real-ESRGAN se entrenó con versiones degradadas de imágenes de calidad, así que aprende a invertir desenfoque, JPEG y reducción.

¿Cuándo es la herramienta correcta?

Victorias clásicas: rescate de miniaturas, escaneos viejos, recortes de móvil. Derrotas clásicas: sintetizar otros puntos de vista, recuperar texto desde fotos borrosas, escalar imágenes ya generadas por IA.

¿Por qué 2× es el valor por defecto?

En 2× hay 4 píxeles de entrada por cada uno de salida; en 4× la red debe inventar 15 de 16 píxeles, lo que rompe caras y texto. Si necesitas 4×, encadena dos pasadas de 2× en vez de una de 4×.

Cómo funciona el modelo en navegador

Modelo ONNX Real-ESRGAN-x2 (~50 MB), descargado al primer uso y cacheado. Inferencia con ONNX Runtime Web compilado a WebAssembly, con WebGPU cuando está disponible (Chrome 113+/Edge 113+/Safari 17+). M2: 1024×1024 → 2048×2048 en ~4 s; iPhone 14 en ~12 s.

Límites realistas

Caras: en 4× pueden cambiar rasgos sutiles. Texto: tipografía pequeña casi nunca queda legible. Imágenes muy comprimidas: bloques JPEG se amplifican como ‘rasgo’. Fuente IA: artefactos acumulados. En la duda, párate en 2×.

Pasos

Aprox. 1 min
  1. Soltar la imagen

    JPG/PNG/WebP por debajo de 4 MP. Más grande funciona pero el tiempo de inferencia crece al cuadrado.

  2. Elegir factor

    Por defecto 2×. Sólo 4× si tienes motivo y no hay caras pequeñas en cuadro.

  3. Esperar la inferencia

    Primera vez se descarga el modelo (~50 MB). M2 ~4 s, iPhone 14 ~12 s.

  4. Comparar y descargar

    Usa el comparador antes/después; si una cara queda extraña, baja a 2× u omite.

Real-ESRGAN-x2 — tres tamaños de entrada
Entrada → SalidaApple M2 (WebGPU)iPhone 14 (Wasm)Tamaño salida
256×256 → 512×5120,4 s1,1 s+150% bytes
512×512 → 1024×10241,3 s3,8 s+220% bytes
1024×1024 → 2048×20484,1 s12,0 s+280% bytes
Medido con ONNX Runtime Web 1.21, Real-ESRGAN-x2 (~50 MB), M2 Chrome 139 / iPhone 14 Safari 17, JPG calidad 90 (2026-04-26).

Preguntas frecuentes

  • ¿Se puede pasar de 4×?

    Encadena dos pasadas 2× para un 4× efectivo. Más allá los artefactos dominan.

  • ¿Por qué las caras quedan raras a veces?

    La red no sabe quién es; rellena con los rasgos más plausibles del contexto local.

  • ¿Mis fotos se suben?

    No — el modelo se cachea y la inferencia es local.

  • ¿Procesa varios archivos?

    Sí — los encola y procesa secuencialmente; sólo la primera paga el arranque en frío.

  • ¿Sirve contra artefactos JPEG?

    Compresión leve sí; bloques marcados se amplifican.

  • ¿Funciona con imágenes IA?

    Suele empeorar — se acumulan artefactos.

Probar ahora

ONNX Runtime Web + WebGPU 2× / 4× super-resolution

AI Upscale (Real-ESRGAN) — 100% in-browser

Este artículo incluye traducción asistida por IA. Avísanos si encuentras errores.

Medimos uso anónimo con analítica sin cookies. Consulta nuestra política de privacidad.