Ahora la IA ahora es capaz de crear videos de famosos diciendo cosas que no

Escrito por: yessicavhh@gmail.com

25 diciembre, 2017

Entretenimiento

Para nadie es un secreto que en ocasiones a los medios comunicación se les acaban las noticias, ya sea medios nacionales o internacionales en ocasiones los “periodistas” utilizan de todo, para tener algo que les permita tener audiencias.
Tal vez no todos se presten al ejercicio de publicar noticias falsas, para después retractarse, o simplemente decir “nos hackearon”. Pero conforme pasan los años y la tecnología avanza los medios informativos que solían ser nuestras fuentes de información, han dejado de serlo y simplemente ya no les creemos nada.

Siguiendo con la  misma línea, hace algunos meses Investigadores de la Universidad de Washington, crearon un vídeo digital del ex presidente de EE.UU, Barack Obama en el que se puede escuchar algunos logros presidenciales. Aunque por un momento al reproducirlo pudiera confundirte, el vídeo es totalmente falso. Y fue logrado gracias a la Aplicación de Inteligencia Artificial.

El método consiste básicamente en el empleo de una red neuronal artificial, que logra simular la boca del ex presidente, y la cual puede hacer coincidir cualquier audio con un modelo virtual, acompañados de algunas imágenes de archivo.

El motivo por el cual se decidió escoger a Obama para la primera prueba, fue que al ser reciente su participación en los medios de comunicación, se contaba con miles de archivos en las bibliotecas.

Lo polémico del asunto, es que de no caer en las manos correctas, seguramente este tipo de tecnología podría causarle problemas algunos mandatarios o personas importantes a nivel internacional.  Aunque al ser un prototipo avalado por una Universidad tan importante, seguramente se tendrán los filtros necesarios para acceder a ella.

En entrevista para la BBC, la profesora Ira Kemelmacher, profesora y titular del proyecto declaro lo siguiente:
“Lo interesante de crear esta tecnología es que una vez la entendemos, también podemos saber cómo darle vuelta. Y de esa forma podemos crear métodos para distinguir cuando un vídeo ha sido manipulado”