¿Qué es Deep Nostalgia? De los Living Portraits a los humanos artificiales | Tecnología

Estás últimas semanas se han popularizado varias aplicaciones que nacen de la misma tendencia tecnológica. ¿Qué futuro plantean los Living Portraits y los humanos artificiales? Os lo contamos.

Estas últimas semanas, las redes se han llenado de caras en blanco y negro que han vuelto a la vida durante unos pocos segundos para entretenimiento de sus familiares. Se trata de Deep Nostalgia, una nueva aplicación de la empresa MyHeritage que genera estos vídeos a través de una simple fotografía. 

La aplicación restaura las fotos antiguas con peor calidad y selecciona uno de los rostros en ellas para darle ciertos movimientos, los gestos que la persona podría haber hecho mientras posaba para la cámara. El éxito ha sido rotundo y nos hemos encontrado con personalidades como Alan Turing, Marie Curie, Federico Garcia Lorca. Incluso algunos se han atrevido con esculturas y cuadros. 

Pocos días después aparecía otra aplicación similar que conseguía la misma atención en redes. En este caso, Wombo pone a cantar y bailar a los protagonistas de las fotos que le demos. Ambas propuestas se pueden utilizar de forma gratuita, la primera desde la web de MyHeritage y la segunda con una app para el móvil. 


Kurt Luther, un profesor de la Universidad Virginia Tech, ha creado una web que permite analizar fotografías antiguas para determinar quién era la persona que aparecía en ellas, y poder dotar por tanto a esas imágenes del contexto del que carecen.

Tras estos sencillos juegos y aplicaciones, hay una tendencia tecnológica que pretende democratizar la industria de la creación de contenidos. Para desarrollar Deep Nostalgia, My Heritage ha contado con la ayuda de una start-up israelí que utiliza la inteligencia artificial para acoplar los movimientos y gestos de una persona actual en el rostro de una fotografía y que parezcan propios. 

Los retratos vivientes

Desde la compañía aseguran que esta tecnología podría simplificar la fabricación de contenidos y que cualquiera pueda crear vídeos sin el coste que supone actualmente, contratar actores, maquillaje y vestuario, etc. Algunos de estos ejemplos se conocen como Living Portraits o retratos vivientes.

Estas técnicas de machine learning y las redes GANS responsables de los deepfakes ya se están utilizando, por ejemplo, en productos publicitarios como el anuncio de Cruzcampo con Lola Flores y en el cine, recuperando a personajes famosos que ya no están vivos para dar más fuerza al mensaje. 

Además de la televisión habría otras posibles utilidades de esta nueva tecnología. Por ejemplo, imaginad a la Gioconda acompañándonos por todo el Louvre y explicando cada detalle de los cuadros,  o a Velazquez en el Museo de Prado, en vez de a los muchos guías que ya trabajan en estos museos y que se han formado para hacer maravillosamente ese trabajo. Esto ya se ha conseguido con Salvador Dalí en Florida.

Los humanos artificiales

No obstante, no son las únicas caras nuevas que podrían sustituir a los humanos de carne y hueso en este tipo de profesiones de cara al público.  Gil Perry, CEO y cofundador de D-ID, lo explicaba así para la revista Forbes: “Imagine una plataforma de noticias digitales en la que el usuario final puede tomar un artículo escrito, elegir su presentador de noticias favorito y ver cómo este presentador transmite las noticias, en el estudio, en lugar de simplemente leerlas. Nuestro algoritmo genera al reportero y lo muestra en el estudio sin que sea filmado«.

Perry, se refiere a los llamados humanos artificiales o humanos sintéticos que otras empresas como Samsung también están desarrollando y que en el futuro podrían sustituir a actores, presentadores, profesores, recepcionistas y un largo etcétera de profesiones que requieren de una cierta presencia y atención al público. Este telediario de Corea del Sur ha causado un gran debate en el país al utilizar una  réplica de IA de la presentadora real Kim Joo Ha , ya que copiaron los gestos y la voz de la presentadora. 

A diferencia de las herramientas como Deep Nostalgia o los deepfakes que utilizan los rostros de personas que conocemos, los humanos sintéticos son personas que nunca han existido. Rostros creados desde cero por programas como StyleGAN, la red generativa antagónica de Nvidia. Y a los que se les da movimiento y expresiones para poder interactuar con ellos. 

Para el vídeo que acompaña este contenido, Anna, ha sido la encargada de hacer la introducción. Se trata de una presentadora artificial de Synthesia a la que le hemos dado un sencillo texto para presentar este video. No lo hace nada mal, pero resulta algo formal al lado de los prestadores tradicionales.

Los que sí consiguen gestos más naturales casi idénticos a los de los presentadores Computer Hoy son el equipo de humanos artificiales de Neon, el grupo sintético de Samsung. “Tu próximo instructor de yoga, tu asesor financiero, la estrella de un grupo de música o un amigo que te conoce mejor que nadie”.

Todavía están en fase de prueba, pero cuentan con una API que las empresas pueden solicitar para probar esta tecnología. Para cuando Samsung lance en unos años la aplicación, cualquier usuario o empresa podrá utilizar estos rostros como imagen de eventos. Podrían presentar un nuevo smartphone o dirigir una gala de premios. Es más, esta tecnología ya se ha usado para revivir a los héroes del movimiento de independencia de Corea que se produjo en marzo de 1919 contra la ocupación japonesa. 

¿Y si cada marca creara a su propio influencers para vender sus productos, su propio personaje público con miles de seguidores que les saldrían mucho más baratos que los famosos de verdad? Puede parecer un futuro muy lejano, pero ya estamos viviendo los primeros pasos. Incluso ya tenemos a la primera influencer artificial, Lil Miquela, con 3 mil millones de seguidores en Instagram. O la primera modelo sintética, Shudu Gram, de medidas perfectas, claro. 

De momento, todos estos proyectos necesitan que alguien escriba un guion y les preste su voz para darles más vida, pero no olvidemos que esto también se está consiguiendo a través de avances en la manipulación de voz y el lenguaje o texto. Proyectos como GPT-3 son cada vez más hábiles a la hora de imitar nuestro lenguaje, nuestras expresiones y crear textos como los que nosotros utilizamos.

Deja un comentario