El sector más “caliente” del mundo de la tecnología ahora mismo es, sin duda, el de la inteligencia artificial. Es uno de los pocos en el que se puede encontrar aún la excitación e innovación constantes que existieron en Internet durante los primeros años, y que ahora parecen agotadas (sobre todo en los sectores más populares: redes sociales, apps móviles, etc).
Por supuesto, esta innovación tiene que llegarnos también al sector audiovisual, así que recientemente nos hemos enterado de la aparición de Pixop, un servicio de escalado y restauración de imágenes usando IA. Afirman ser capaces de escalar imágenes antiguas (SD, HD…) a 4K, 8K, eliminando en el proceso artefactos, ruido… Así que, por supuesto, nos hemos apuntado y lo hemos probado.
Pixop es un servicio de pago: uno ingresa dinero en su cuenta y nos lo van descontando según generemos imágenes. Su UI es similar a la de servicios como Frame.io: podemos subir nuestros vídeos, organizarlos en carpetas y proyectos… OJO, sin embargo: Pixop cobra una módica cantidad (la que cuesta el servicio de almacenamiento en la nube que utilizan como infraestructura) por dicho almacenamiento (actualmente el precio citado es de 0.023$ por Gigabyte al mes):
En cuanto a lo que podemos hacer, disponemos de diversos filtros (listados en https://www.pixop.com/filters/) que permiten no solo rescaalar imágenes, sino también eliminar artefactos como ruido, entrelazado, restaurar imágenes analógicas… todo dependiendo de lo que necesitemos. El precio depende de los “gigapixels” que tengamos que generar, los cuales dependen obviamente de la resolución final y de la duración de los clips. En cualquier caso, Pixop nos muestra una estimación de costes antes de iniciar cualquier operación.
Todo esto no es más que un preliminar, sin embargo, para contestar a la gran pregunta: ¿funciona bien?
Como una imagen vale más que mil palabras (sobre todo en casos como este), vamos a comprobarlo. Estas imágenes se grabaron con una Sony A7IV, y se puede hacer click en todas para ver la captura a resolución completa.
Aquí está una imagen grabada en HD (1080p) (click para ver la imagen completa):
Aquí está la misma imagen escalada a Ultra HD (3840 x 2160) con el filtro “Super Resolution” de Pixop:
Aquí está la imagen pasada por el filtro “Deep Restoration”, que permite según Pixop aplicar también IA para restaurar detalle y eliminar ruido y artefactos:
Y por último… aquí está la imagen en 4K real (o más bien UHD), grabado con la misma Sony A7IV:
Y aquí, por último, una comparación de los detalles (hacer click para ver la imagen a resolución completa):
Como se ve, los resultados son más que aceptables e incluso perfectamente utilizables, siempre dependiendo del entregable final. Como mucho, al filtro «Super Resolution» se le podría poner alguna pega, pero en cuanto se pasa a utilizar el más avanzado «Deep Restoration»… estamos prácticamente «ahí».
Cada lector podrá sacar sus propias conclusiones. Por lo pronto, nosotros ya hemos usado Pixop para nuestro último proyecto, con el fin de reescalar imágenes de archivo antiguas que no era práctico volver a rodar en 4K, y no dudaremos en tener en cuenta esta herramienta en un futuro (o al menos mientras las IA no obvien la necesidad de rodar, que a este paso nunca se sabe).
Está habiendo cierto debate en las últimas semanas en el mundillo de la fotografía (al menos en EE.UU.) sobre si la cámara de los últimos Iphone es demasiado «inteligente», tomando decisiones que debería tomar el fotógrafo y dando un aspecto poco natural a las fotos. Todo empezó con una entrada de Sebastiaan de With, creador de Halide, la famosa app de fotografía profesional para Iphone:
(«Al final, esto es una elección creativa. Apple está haciendo magia de verdad con su procesado: saca imágenes muy usables y detalladas a partir de un sensor muy pequeño con una lente que no puede recoger suficiente luz para buenas fotos nocturnas hechas a mano. Esto es sin considerar siquiera el procesado que requiere el «Night mode». Si eres fotógrafo, sin embargo, deberías ser consciente de este procesado – y tomar una decisión informada sobre si lo quieres usar o no. Yo me he decidido tras unos meses: para mí, el procesado en el Iphone 13 Pro es excesivo a veces»).
La famosa revista New Yorker continuó con el tema poco después con uno de sus exhaustivos (aunque bastante selectivos y parciales a poco que uno rasque) reportajes:¿Have Iphone Cameras become too smart?
(Inciso: supongo que lo sabe todo el mundo, pero… en el Iphone y en todos los smartphones modernos, la fotografía que aparece en la pantalla no es una réplica exacta (ni mucho menos) de lo que ha captado el sensor. Las compañías tecnológicas tiran de aquello en lo que son fuertes (el software, los algoritmos) para procesar y filtrar la foto, eliminando los defectos inherentes en el tipo de cámara que instalan (por ejemplo, el ruido). La fotografía final es una «creación» del software del móvil casi tanto como de la realidad ante nuestros ojos).
Todo lo que nos lleva al tema de esta entrada.
En respuesta a los artículos anteriores, John Nack, jefe de producto de Adobe y veterano de la industria de la fotografía digital (con años de experiencia en Google y en el propio equipo de Photoshop), twiteó:
(«Si alguien leyó ese artículo del New Yorker y cree que prefiere hacer fotos en un Iphone 7, que vea estas fotos de Iphone 7 vs. Iphone 12 que tomé»).
Aconsejo ver la galería enlazada antes de seguir leyendo e intentar adivinar por uno mismo qué fotos están tomadas con el Iphone 7 y cuáles con Iphone 12; no es difícil.
La cuestión, sin embargo, es que resulta más difícil de lo que parece (al menos a mí) decidir entre unas y otras. Tomemos como ejemplo esta foto tomada con el Iphone 7:
Y ahora esta foto hecha con el Iphone 12:
La segunda foto es técnicamente «mejor»: los colores más saturados, sin contraluz… pero el caso es que la primera foto, al menos para quien esto suscribe, es perfectamente válida. Incluso se podría defender que es mejor estéticamente. ¿Está la máquina que está en primer plano subexpuesta debido al contraluz? Sí. ¿Tiene la foto menos contraste debido a la luz que da directamente en la lente? También. ¿Y?
Gran parte del lenguaje audiovisual al que estamos acostumbrados tiene su origen en las limitaciones de la tecnología con la que hemos vivido durante todo el siglo XX. Los contraluces existen porque las cámaras no tenían suficiente rango dinámico para mostrar claramente las partes soleadas y las partes en penumbra de una imagen a la vez. La cuestión es que los fotógrafos, a lo largo de la Historia, han sido capaces de usar esas limitaciones a su favor para dirigir la atención del ojo al sitio correcto, para elegir qué mostrar, que es al fin y al cabo el trabajo del artista. Encuadrar para elegir qué se ve y qué no, exponer para decidir qué es lo importante en la imagen.
Ahora la tecnología nos permite saltarnos esas limitaciones; nos permite, literalmente, tenerlo todo. El Iphone detecta automáticamente cuándo una imagen tiene un rango dinámico excesivo y realiza varias exposiciones para combinarlas en un HDR, sin que el usuario lo sepa siquiera. Todo esto plantea varias cuestiones interesantes.
Primero, ¿qué significa entonces «mejor»? Los informáticos y técnicos tienden a usar definiciones de calidad objetivas y medibles: para ellos, una foto «mejor» es la que reproduce con más fidelidad «lo que vemos con los ojos» (obviemos aquí la cantidad enorme de procesado que realiza nuestro cerebro de las señales que le llegan por el nervio óptico); por tanto, una foto «mejor» es aquella en la que «se ve todo bien», como en la foto de iPhone 12 enlazada arriba. Pero eso no significa que sea la mejor foto estéticamente. Y el problema es que son ellos (los informáticos y programadores de Silicon Valley) los que desarrollan el producto y tienen por tanto la última palabra sobre cómo va a funcionar éste. (Hay que decir que, dentro de lo que cabe, Apple es una empresa que siempre ha tenido cierto gusto estético y respeto por los artistas, tanto por la influencia de Steve Jobs como por imagen y marketing, pero aun así…)
Como consecuencia de lo anterior, y en segundo lugar, está el cambio generacional en lo que se considera una «buena» foto. La mayoría de los fotógrafos en ejercicio hoy en día se han criado con los criterios estéticos que surgieron de la tecnología del siglo XX, pero ¿qué pasará en veinte años, cuando las cámaras con controles manuales estén totalmente extinguidas? (ni hablemos ya del analógico para entonces). ¿Llegará el momento en el que se considere una foto a contraluz una foto «mala» «porque no se ve bien»? (Ya estamos viendo ejemplos de este cambio de paradigma estético, en gente joven que realiza por ejemplo videos a 50 o 60 fps y prefieren el movimiento que les da ese frame rate).
(Si a alguien le parece esto un ejemplo exagerado, aquí va un dato: algunas transferencias a BluRay de clásicos de los años 70 como «Taxi driver» han tenido reseñas malas en los foros de aficionados debido al grano, hasta el punto de que en otras películas de la época se ha acabado eliminando ese grano digitalmente…)
Cuando se producen esta clase de debates entre los profesionales de la imagen, se suele recurrir siempre al final a una invocación esperanzadora: «mientras tenga la posibilidad del control manual…» Y efectivamente, es importante que los fotógrafos sigamos teniendo la posibilidad de desactivar todas las ayudas electrónicas y controlar la imagen a mano, pero eso no es lo único importante. No basta con poder manipular los controles; también hace falta saber para qué. Una generación criada con la cámara automática del Iphone y con la única costumbre de manipular las fotos con el filtro del Instagram, ¿sabrá qué hacer con el diafragma o el obturador, aunque pueda manipularlos?
Hace ya años, coincidiendo con una caída en la venta de cámaras DSLR en Japón, el fotógrafo americano Kirk Tuck publicó un blog analizando el mercado de la fotografía digital. En él, y también en una entrevista posterior en el podcast de FxGuide, lanzó una idea interesante: las cámaras DSLR digitales son (o fueron, hasta hace unos años) el equivalente del siglo XXI de los equipos Hi-Fi en los 70, o los ordenadores en los 80, o los PalmPilot y teléfonos móviles en los 90… esto es, hobbys tecnológicos para un público (sobre todo) masculino, con ingresos de sobra e interés por la tecnología. Dicho público es el que produjo el «boom» de la industria durante la primera década de este siglo, igual que produjo antes el «boom» en la industria del PC o la de los PDAs.
Pasemos ahora al momento actual. No deja de ser extraño que cámaras de cine de 25.000 euros como las RED o las Arri Alexa tengan seguimiento en foros de Internet, comentarios, discusiones enfurecidas entre fans… Siempre he pensado que, desde el punto de vista del marketing, una cámara RED se parece más a un tractor que a un bien de consumo: es un bien industrial de alto precio, con prestaciones especializadas, que se compra para ser amortizado en varios años y con la idea de usarlo para sacar un rendimiento económico. ¿No resulta extraño que un producto industrial como éste tenga foros de fans discutiendo sobre sus virtudes y defectos, como si fuera un grupo musical? ¿Existen foros de agricultores donde los fans de John Deere y los de Fendt se tiren los trastos a la cabeza?
No estoy diciendo que los frikis de la tecnología de los que hablaba al principio hayan cambiado de profesión y se hayan hecho todos «filmmakers», pero sí da la impresión de que en el mundo audiovisual hemos importado dicha mentalidad. La transición digital, la carrera tecnológica, la entrada de las DSLRs en el mercado del vídeo… han hecho que el mercado profesional tenga actualmente muchas de las mismas dinámicas que el mercado de consumo. Se lanzan cámaras nuevas como si fueran iPhones nuevos… y sus compradores pensamos en ellas (hablamos, debatimos, tomamos decisiones de compra…) como si estuviéramos pensando en iPhones nuevos.
A esto contribuye también la difuminación de las fronteras entre lo que es «profesional» y lo que es amateur. Sin entrar siquiera en el mundo de las DSLRs básicas (muchas de las cuales tienen una calidad de imagen más que aceptable), pongamos un ejemplo de una marca «profesional»: la Blackmagic Pocket Cinema Camera cuesta sobre los 1400 euros, poco más que algunos teléfonos móviles, pero no tiene autofocus, ni IBIS, ni otras funciones que le facilitarían la vida al usuario aficionado. Entonces, ¿es una cámara profesional o no?
La conclusión, si hay alguna, supongo que es: olvidarse del “hype”, del consumismo, de las campañas de marketing y de los fanboys, y tratar la compra de una cámara como si fuéramos un agricultor decidiendo la compra de un tractor, o el gerente de una fábrica eligiendo la maquina herramienta a instalar. ¿Sirve la cámara para los trabajos que quiero hacer? ¿Puedo generar ingresos para amortizarla? Y sobre todo, ¿es necesario comprar una cámara nueva? Discutir sobre megapixels, 4K o 8K y demás puede ser divertido y producirnos una inyección de dopamina en el cerebro, igual que leer sobre coches superdeportivos, pero eso no significa que vayamos a abandonar nuestro Kia para comprar un McLaren.
Y por supuesto, recordar la verdad eterna: la cámara no lo es todo. “Frances Ha” es una de las mejores películas independientes de los últimos 10 años, y fue rodada con una… Canon EOS 5D MK3. Por supuesto, cuando tienes actores como Greta Gerwig y un guión escrito por Noah Baumbach (nominado al Oscar), no hace falta mucho más.
Durante el confinamiento de principios de este año, tuvimos la ocasión de ver a gran cantidad de artistas publicar contenidos de todo tipo en redes para hacer más llevadero el encierro al público. De todos ellos, uno de los proyectos más interesantes fue el iniciado por Roger Deakins y su esposa, que afortunadamente ha tenido continuidad hasta ahora.
Roger Deakins, para quien no lo conozca, es uno de los grandes directores de fotografía del cine actual. Colaborador habitual de los hermanos Coen, en sus créditos figuran películas como «Skyfall» o «Blade runner 2049».
En mayo de este año, Deakins y su esposa James comenzaron un podcast, «Team Deakins», en el que conversan de cine, explican detalles técnicos de su forma de trabajar y entrevistan a destacados profesionales. Todos los episodios son una auténtica mina de información, y no solo para el mero amante del cine: cualquier profesional del audiovisual puede encontrar también toda clase de ideas sobre cómo trabajan los mejores del sector, así como exploraciones en profundidad de la tecnología que hay detrás: véase por ejemplo la conversación con Franz Kraus, directivo de Arri.
Las entrevistas son también un auténtico lujo, repletas de conversaciones en profundidad con algunos de los mejores directores, actores, editores… del panorama actual. De entre todas las publicadas hasta ahora, destacaríamos la charla con Sam Mendes, una auténtica «masterclass» en la que el director nos guía por su carrera y habla con sinceridad sobre sus proyectos, tanto los exitosos como los fallidos.
Uno de los trabajos que más satisfacciones nos ha dado desde que comenzamos con La Burbuja ha sido nuestra colaboración con la asociación Mi Princesa Rett, dedicada a ofrecer apoyo a las familias de niñas afectadas por el síndrome de Rett.
(¿Qué es el síndrome de Rett? Se trata de una enfermedad rara de origen genético, que es la principal causa de discapaciddad intelectual en niñas. Una ONG estadounidense la describe asi: «imagina los sintomas del autismo, la parálisis cerebral, el Parkinson, la epilepsia y el trastorno de ansiedad… todos juntos en una niña pequeña»).
Ahora que se acercan estas fechas navideñas, es buen momento para recordar que Mi Princesa Rett cuenta con una tienda online de productos solidarios, donde se pueden adquirir su calendario anual, realizado en colaboración con famosos como Sara Baras, Antonio Orozco o Eva González, asi como otros productos como camisetas, mascarillas y tazas. Todos los beneficios se dedican íntegramente a la asociación.
Usamos cookies para asegurar que te damos la mejor experiencia en nuestra web. Si continúas usando este sitio, asumiremos que estás de acuerdo con ello.AceptarPolítica de privacidad