Samsung ha publicado un desglose técnico que explica el cambio de fondo en la cámara del Galaxy S26: la IA ya no entra solo cuando haces la foto, también trabaja mientras estás encuadrando.
La clave está en el Exynos 2600 y en una pieza nueva dentro del sistema de cámara, llamada VPS (Visual Perception System), pensada para analizar la escena en tiempo real desde la vista previa y alimentar al procesado con más contexto.
Esto no va de ponerle una etiqueta más a la fotografía computacional, sino de alterar el orden de los factores. Hasta ahora, muchas mejoras dependían de arreglar la imagen cuando ya estaba capturada. Con VPS, Samsung describe una arquitectura híbrida donde el sistema de imagen y el sistema de visión por computador trabajan en bucle, interpretando sujetos, movimiento y regiones de interés mientras el sensor sigue enviando frames.
La base del argumento de Samsung es que el móvil moderno ya no procesa una imagen suelta, sino una secuencia continua. El multi frame es el modo por defecto: llegan frames como si fueran vídeo, y el sistema decide cómo fusionarlos para conseguir más detalle, menos ruido y menos fallos en movimiento. Eso exige algo más fino que un ajuste fijo del ISP, porque en cuanto hay gente, manos, pelo, gestos o cambios de luz, el mejor frame no siempre es el mismo.
Aquí aparece la primera palabra importante del texto: motion estimation. Samsung insiste en que estimar el movimiento de forma precisa, separando el movimiento global de la escena del local (por ejemplo, una mano o una cara), es crítico para que la fusión multi frame salga bien. Con estimación de movimiento basada en deep learning, el ISP puede generar una configuración dinámica para cada situación, en vez de aplicar un perfil genérico.
El salto diferencial que plantea Samsung es que el Exynos 2600 integra por primera vez en su gama un VPS como subsistema dedicado de visión por computador para cámara. La idea es sacar parte de ese análisis de CPU, GPU o NPU y llevarlo a una arquitectura pensada para funcionar de forma sostenida, con baja latencia y con consumo contenido, incluso en escenarios de resolución alta y 60 fps.
Dentro de ese VPS hay detección facial basada en IA, estimación de movimiento y segmentación semántica en tiempo real, todo operando en bucle con el ISP. También cuantifica el objetivo: hay una mejora de eficiencia energética superior al 50 por ciento en varias soluciones de cámara frente a la generación anterior, combinando menor consumo y menor latencia.
Un caso muy reconocible para justificar todo esto son las fotos de grupo donde siempre hay alguien con los ojos cerrados. El VPS puede seguir el estado facial en tiempo real, incluyendo la detección de parpadeo y puntos faciales (facial landmark detection), desde la vista previa hasta el disparo. Con esa información, el sistema podría seleccionar o componer los mejores frames por persona para entregar un resultado con una sola captura, evitando repetir la foto.
Es reconocimiento y evaluación de expresiones y parpadeo, y de un flujo de optimización para fotos de grupo basado en VPS. No se está diciendo que la cámara invente caras.
Otro concepto que Samsung introduce en el texto es CAX (Content Aware Preview, Video, Capture). La idea es aplicar mejora de imagen por regiones usando segmentación semántica en tiempo real: regiones con detalle fino como cejas o pelo se pueden mantener más nítidas, mientras la piel se procesa con otra lógica para un acabado más natural.
Esto conecta con una sensación que muchos usuarios ya tienen: hay móviles que clavan el detalle en una zona, pero plastifican otra. Samsung está describiendo un enfoque más explícito: entender qué es cada parte de la escena y aplicar criterios distintos sin esperar a la foto final.
Lo que Samsung está defendiendo, en resumen, es una cámara que no solo captura y luego procesa, sino una cámara que percibe mientras encuadras. El resultado son menos sorpresas al revisar la foto y más consistencia en situaciones donde el móvil suele sufrir: gente en movimiento, grupos, interior con luz complicada y cambios rápidos de escena.
Imágenes | Xataka
En Xataka Móvil | Samsung ha conseguido que los Galaxy S26 se configuren solos. Para lograrlo solo ha tenido que triplicar la IA
En Xataka Móvil | Galaxy AI sube de nivel con los nuevos Galaxy S26 con mejoras para editar fotos, recibir sugerencias contextuales y mucho más
-
La noticia
Antes de disparar, la IA de los Galaxy S26 ya ha hecho montones de análisis para que tu foto siempre quede perfecta
fue publicada originalmente en
Xataka Móvil
por
Manuel Naranjo
.
completa toda los campos para contáctarnos