Inmediatamente después del revuelo mediático provocado por el anuncio de DLSS 5, NVIDIA ha decidido arrojar algo de luz, aunque muchas de sus respuestas sigan moviéndose en ese terreno pantanoso de la interpretación corporativa.
A través de una entrevista realizada por el youtuber Daniel Owen, la compañía ha tenido que dejar a un lado el lenguaje de marketing para explicar, de una vez por todas, qué ocurre realmente cuando activamos su nueva función estrella. La respuesta, lejos de calmar las aguas, confirma que estamos ante un cambio de paradigma radical: la IA ya no solo escala, ahora «imagina».
El adiós a la geometría: Un post-procesado con esteroides
El DLSS se ha basado siempre en ayudar a la tarjeta gráfica a rellenar huecos mediante vectores de movimiento y datos temporales. DLSS 5 rompe con el renderizado tradicional. Jacob Freeman, de NVIDIA, ha confirmado que la tecnología no lee la geometría 3D, ni las mallas de los personajes, ni las luces del motor de juego. En su lugar, toma una captura 2D (un screencap) junto a vectores de movimiento y aplica un modelo de IA generativa encima.
¿Qué significa esto para el jugador? Básicamente, que la IA observa el frame terminado y decide qué aspecto debería tener «según su experiencia». No sabe que hay una pared de piedra ahí; simplemente infiere que esa textura debería ser rugosa basándose en su entrenamiento. Esto ha levantado cejas entre los puristas, ya que sitúa a la tarjeta gráfica más como una «directora de arte» improvisada que como una herramienta de precisión matemática.
La polémica de la intención artística: ¿Quién manda aquí?
Uno de los puntos más críticos discutidos por Owen es la preservación de la visión del desarrollador. Si la IA decide añadir maquillaje a un personaje que no lo lleva (como se vio en ejemplos de RE: Requiem) o cambiar la densidad del vello facial en Starfield, el control creativo se diluye. NVIDIA esquivó las preguntas sobre si los desarrolladores podrán «limitar» estos cambios, refugiándose en que esto es solo una versión preliminar.
Lo más sorprendente es la confirmación de que DLSS 5 vive limitado al espacio de pantalla. Al no entender el trazado de rayos (Ray Tracing) ni las fuentes de luz que están fuera de la cámara, surge la duda existencial: si la IA va a «dibujar» sombras y reflejos bonitos por su cuenta, ¿para qué castigar al hardware con cálculos de Ray Tracing reales? Por ahora, la eficiencia no parece ser el fuerte de esta tecnología, especialmente cuando las demostraciones requieren la fuerza bruta de dos RTX 5090.
En cuanto al futuro, NVIDIA no ha cerrado la puerta del todo a una posible apertura de código a través de DirectML, aunque por ahora se guardan el secreto bajo llave.
La sensación general es que estamos ante una tecnología potente pero impredecible, que prefiere pedir perdón antes que permiso.
Puedes seguir a HardwarePremium en Facebook, Twitter (X), Instagram, Threads, BlueSky o Youtube. También puedes consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.
FAQ – Aclaraciones sobre DLSS 5
No, pero actúa como una capa final que puede modificar visualmente el resultado sin consultar los datos originales del motor de juego.
De momento es propietario, aunque NVIDIA ha dejado una mínima esperanza al no negar rotundamente futuras integraciones con estándares abiertos.
Porque la IA infiere qué debería haber en la imagen basándose en su entrenamiento, lo que a veces resulta en detalles (como pelo o texturas) que no estaban en el modelo original.
Las pruebas actuales son extremadamente exigentes, sugiriendo que la carga de trabajo de la IA generativa en tiempo real es masiva.
No. Solo analiza lo que se ve en la pantalla 2D, ignorando las luces y reflejos que ocurren fuera del campo de visión del jugador.



