El lado oscuro de la IA y la edición de video

Toda esta historia comienza con un artículo publicado por investigadores de UC Berkeley el 22 de agosto de 2018, que demuestra cómo una computadora puede superponer un “esqueleto digital” a la semejanza de un ser humano para hacer que la persona parezca un buen bailarín. Suena divertido, ¿verdad?

¿Quién de nosotros con dos pies izquierdos no querría presentar un video de nosotros mismos bailando como el próximo Michael Jackson? Sin embargo, el hecho de que estemos mezclando inteligencia artificial con software de edición y renderizado de video podría tener algunas implicaciones bastante siniestras si se abusa de la tecnología.

Presentando el trabajo de los investigadores

El artículo publicado por los investigadores que se mencionó anteriormente fue básicamente una demostración de cómo el aprendizaje automático podría emplearse para “transferir movimiento entre sujetos humanos en diferentes videos”, superponiendo efectivamente los movimientos de una persona a otra. Puedes ver los resultados de su trabajo aquí:

>

Parece chiflado y algo divertido, pero las realidades a las que nos podríamos enfrentar a medida que esta tecnología continúa desarrollándose podrían resultar un desafío para nosotros como sociedad en el futuro. Aunque usamos el término “IA” de manera vaga al decir que esta es una demostración de una técnica de edición de video que implementa el concepto, ciertamente es uno de los precursores de la inteligencia artificial (por ejemplo, “imaginar” a alguien en una situación) .

Hablemos de Deepfakes

Use “deepfake” como término de búsqueda en YouTube, y encontrará muchos videos amigables para el trabajo que presentan intercambios de caras de celebridades y algunas falsificaciones semi-convincentes producidas en el acto. Aunque esto se hace a menudo con buen humor, no todo el mundo tiene buenas intenciones con este software.

Los deepfakes toman un perfil facial de un individuo y lo superponen sobre el rostro de otro individuo. Puedes ver a dónde vamos con esto, y si no puedes, aquí está: hay muchas personas que usan esta técnica para crear un video de “porno de venganza” de otros, implicándolos en una situación muy intimidante en la que encuentran su semejanza adjunta a contenido explícito y no tienen recurso. Parece totalmente que hicieron lo que esté sucediendo en el video.

Una tecnología de superposición más avanzada podría permitir que las computadoras dibujen un esqueleto virtual que luego permitiría a los actores malintencionados superponer a una persona completa en una situación potencialmente comprometedora. Lo que obtenemos es un cóctel de herramientas que podrían usarse para fabricar evidencia. Se podría hacer que un tirador se pareciera a otra persona en las imágenes de la escena del crimen.

¿Qué efecto tendría esto legalmente?

La mayoría de los países ya cuentan con un sistema legal que define claramente la falsificación de hechos o un testigo falso. En lo que respecta a la “suplantación virtual” de un individuo, el uso de estas técnicas para modificar un video ya cae dentro del ámbito de estas leyes.

Donde las cosas se complican es cuando se trata de tribunales que admiten evidencia en video. Si tuviéramos la tecnología para curar videos en la medida en que lo hacemos ahora, imagínense de lo que seríamos capaces en cinco años. ¿Cómo podría un tribunal considerar confiable el video presentado? No es muy difícil hacer que un duplicado actúe exactamente como un original. Después de todo, todo es digital.

Los tribunales de justicia ya son muy reacios a aceptar pruebas de video en sus archivos de casos. Esta progresión de la tecnología puede llevarlos al límite, hasta el punto en que no pueden confiar en nada de lo que se capturó en video por temor a aceptar algo que está manipulado.

Al final, nos guste o no, parece que este nuevo tipo de tecnología está aquí para quedarse con nosotros y tendremos que adaptarnos en consecuencia. Uno de los primeros pasos que podríamos tomar es crear conciencia sobre el hecho de que los videos podrían falsificarse mucho más fácilmente, y con muchos menos recursos y requisitos de habilidades, de lo que solían hacerlo en los años 80. Eventualmente, la gente será más escéptica sobre los videos que ven.

“La tecnología se está volviendo cada vez más avanzada… La gente se va a asustar. Y realmente simpatizo con ellos. Pero como la tecnología no se puede dejar de inventar, tenemos que avanzar con ella. Soy mucho más partidario del algoritmo deepfakes en sí mismo y su potencial que para lo que se está utilizando actualmente. Pero, de nuevo, bienvenido a Internet “.

Esto es lo que un usuario particular de Reddit le dijo a The Verge en un artículo  publicado en febrero de 2018.

¿Cómo crees que deberíamos difundir la conciencia? ¿Qué más debemos hacer para adaptarnos? ¡Tengamos esta discusión en los comentarios!

¡Si te ha gustado vota con 5 Estrellas!
(Votos: 0 Promedio: 0)

Escribe Aquí Tu Comentario