Los fotógrafos pronto podrán «ver en la oscuridad» de forma efectiva después de que Google Research haya añadido una nueva herramienta de reducción de ruido con IA a su MultiNeRF (se abre en una nueva pestaña) proyecto.
El programa RawNeRF puede leer las imágenes, utilizando la inteligencia artificial, para añadir mayores niveles de detalle (y muchos menos artefactos antiestéticos) a las fotos tomadas en condiciones más oscuras y con poca luz. Según el equipo que está detrás del proyecto, funciona mejor que cualquier otra herramienta de reducción de ruido que exista.
«Cuando se optimiza sobre muchas entradas brutas ruidosas, NeRF produce una representación de la escena tan precisa que sus nuevas vistas renderizadas superan a los denoisers brutos profundos dedicados a una o varias imágenes que se ejecutan en las mismas imágenes de entrada de línea de base amplia», afirma el explican los investigadores (se abre en una nueva pestaña) en un documento de la Universidad de Cornell.
¿Qué es el NeRF?
NeRF es un sintetizador de vistas, una herramienta capaz de escanear miles de fotografías (se abre en una nueva pestaña) para reconstruir con precisión renders 3D.
Según Ben Mildenhall, uno de los investigadores del proyecto, NeRF funciona mejor con fotografías bien iluminadas y con bajos niveles de ruido. En otras palabras, está hecho para fotografiar de día.
Las tomas nocturnas y con poca luz resultaron problemáticas, ya que ocultaban los detalles en las sombras o se volvían más ruidosas al aumentar el brillo en la posproducción. El problema que encontraron Mildenhall y su equipo fue que las herramientas de eliminación de ruido pueden reducirlo en cierta medida, pero a costa de la calidad de la imagen.
Con la llegada de RawNeRF, la inteligencia artificial está preparada para acallar el ruido sin eliminar los detalles, lo que permite a los fotógrafos «ver en la oscuridad».
En un vídeo de demostración (se abre en una nueva pestaña), NeRF en la oscuridad, -publicado originalmente en mayo de 2022 y que pasó bastante desapercibido en su momento- Mildenhall toma un móvil iluminado sólo con la luz de una vela. RawNeRF es «capaz de combinar imágenes tomadas desde muchos puntos de vista diferentes de la cámara para denotar y reconstruir conjuntamente la escena», explica el investigador de Google.
Las imágenes reconstruidas se representan en un espacio de color HDR lineal, lo que permite a los usuarios manipular los ángulos, las exposiciones, la asignación de tonos y el enfoque. En su vídeo, Mildenhall señala cómo al variar cada uno de estos elementos juntos «se crea un efecto atmosférico que puede atraer la atención a diferentes regiones de la escena».
Aunque todavía está en fase de investigación y no es un producto oficial de Google (todavía), RawNeRF ofrece una visión tentadora de cómo la IA podría ayudar a los creativos a reflejar mejor el mundo que les rodea.