‘Deep fake’, el Beato Grial del prestidigitador y los ciberdelincuentes

La patraña tiene las patas cortísimas y merced a la irrupción de la tecnología en los hábitat de nuestro día a día se convirtió en un factor económico de cara a manejar y llevar a cabo opinar lo que de todos modos no es. Los prestidigitadores han encontrado un Beato Grial en el ‘deepfake’, esa técnica de IA (inteligencia artificial) que últimamente ha ‘resucitado’ a Lola Flores para reivindicar el acento andaluz en un aviso 25 años tras su muerte. Los algoritmos de la inteligencia artificial dejan suplantar cualquier identidad en vídeo, lo que se traduce en un nivel superior en la presente pelea contra la manipulación informativa y que mal utilizado piensa un auténtico riesgo para inocentes y un impulso para los autores de las fake news.

En el viral ‘empowerment’ de la ‘Faraona’ de la citada campaña de publicidad se han usado mucho más de 5.000 fotografías (primordialmente grabadas en los 80 y 90 desde distintas perspectivas) y un desarrollo afín para recrear su voz, usando diferentes pistas de audio de la artista para hacer un patrón de su voz y valiéndose, además de esto, de la asistencia de sus hijas. La secuencia se incorpora como una máscara en 3D sobre la cara real de una actriz, aplicando la morfología craneal de la artista, destacando facciones como los ojos, las cejas, la textura o el tono de la piel, según enseña Ogilvy, agencia autora del spot.

banner haren

Este trabajó se realizó con el apoyo de 2 softwares: FaceSwap, una solución de código abierto apoyado en TensorFlow, Keras y Python; y DeepFaceLab, usado para los datos y detalles finales.

En el viral ‘empowerment’ de la ‘Faraona’ de la citada campaña de publicidad se han usado mucho más de 5.000 fotografías (eminentemente grabadas en los 80 y 90 desde distintas perspectivas) y un desarrollo afín para recrear su voz, usando diferentes pistas de audio de la artista para hacer un patrón de su voz y valiéndose, además de esto, de la asistencia de sus hijas. La secuencia se incorpora como una máscara en 3D sobre la cara real de una actriz, aplicando la morfología craneal de la artista, destacando facciones como los ojos, las cejas, la textura o el tono de la piel, según enseña Ogilvy, agencia autora del spot. Este trabajó se realizó con el apoyo de 2 softwares: FaceSwap, una solución de código abierto apoyado en TensorFlow, Keras y Python; y DeepFaceLab, usado para los datos y detalles finales.

Ver para no opinar

En la técnica de los ‘deepfake’ se usan los populares como algoritmos RGA (redes generativas antagónicas). Hablamos de un sistema de 2 redes neuronales que puede hacer nuevos géneros de datos desde conjuntos que hay. Aquí se presentaría un modelo con fotografías o vídeos, desde las cuales se crean imágenes falsas al tiempo que otro se hace cargo de advertir estas últimas. El desarrollo se reitera inmensidad de ocasiones hasta el momento en que el segundo modelo no sepa distinguir las imágenes reales de las falsas.

La adopción de estas tecnologías tienen la posibilidad de dar enormes dosis de innovación en ciertos ámbitos, pero asimismo puede poner en una situación comprometedora la ciberseguridad y dar a conocer patrañas de las gorditas. «El Presidente Trump es un terminado estúpido», afirmaba serenamente Barack Obama en un vídeo que circuló en las comunidades. Ese Obama no era Obama sino más bien el actor Jordan Peele, que procuró mentalizar con esa patraña publicada en Buzzfeed de los riesgos de los videomontajes hiperrealistas y de la desinformación como amenaza global. Algo que no es nuevo pero sí económico y eficiente para mentir en los tiempos recientes, donde las novedades falsas contribuyen de buena forma a la ‘infoxicación’ de los individuos.

Manipulación en incremento

Merced a la tecnología ‘Machine Learning’ -especialidad científica que crea sistemas que aprenden de forma automática por medio de distintas algoritmos- es viable «hacer contenido bien difícil de distinguir entre situación o ficción», apunta Manuel Zaforas, responsable de la línea de anteligencia artificial y Big Data de Pensamiento Digital. Desde diciembre de 2018, el número de deepfakes que se tienen la posibilidad de hallar en la RED se duplica precisamente cada seis meses, según la compañía enfocada Sensity. Si bien el resultado no sea en todas y cada una de las oportunidades especial, puede ser útil para mentir a parte importante de los individuos, singularmente a la gente mayores. El especialista en Derecho Digital, Borja Adsuara, enseña que estos vídeos desarrollan «una grave inseguridad» y advierte que «los delitos jamás se regulan por la tecnología, sino más bien lo que se hace con ella. Basado en la intención y dependiendo del resultado».

Las compañías de ciberseguridad avisan de que esta manipulación es una de las considerables amenazas a las que se encarará el planeta en los próximos meses. «Todos los que deseen llevar a cabo el mal emplearán estas técnicas para expoliar o dar a conocer novedades falsas. Todos somos atacables de ser personajes principales de un vídeo de esta clase, no solamente los conocidos», enseña Ruth García, técnico de ciberseguridad para ciudadanos de Incibe. Según las previsiones de la compañía Avast, probablemente los ‘deepfakes’ alcancen una calidad este año donde logren usarse activamente en campañas de desinformación. Desde Proofpoint, Fernando Anaya, Country Manager, dice que «si la IA (inteligencia artificial) se regresa poco a poco más convincente en su aptitud de imitar la comunicación humana, probablemente los asaltos de esta naturaleza sean poco a poco más recurrentes».

Hablamos de una tecnología que preocupa en especial a los causantes de las compañías tecnológicas. En concreto, el 74% de ellos piensa que los ‘deepfakes’ son una amenaza para la seguridad de su organización, según un informe de Entelgy. Desde la asesoría avisan sobre las adversidades que puede ocasionar los ciberataques por medio de esta tecnología: Suplantación de identidad y estafas, daños de la reputación corporativa interna y externa, y también incapacidad de varios de los sistemas de ciberseguridad que ya están en su detección.

Según datos de la asesora Gartner en 2023, el 20% de los asaltos para procurar hurtar y hacerse con cuentas emplearán ‘deepfakes’ como una parte de estos intentos de acciones maliciosas. «Son una exhibe mucho más de que la ciberseguridad y la protección de tus datos en un ambiente como Internet cada vez son más primordiales. Jamás entendemos por dónde puede llegar el riesgo», asegura Enrique Domínguez, Directivo de Estrategia de Entelgy Innotec Security. «De ahí que, debemos tener precaución con el contenido que nos llega y suponer frente cualquier actitud extraña u orden contradictoria que recibamos y sin que tengamos la posibilidad corroborar la identidad del emisor».

La mayor parte de los vídeo falsos hiperrealistas son pornográficos

Una investigación de la compañía de ciberseguridad Deeptrace declara que, si bien hay vídeos de diversión o de tipo político, el 96 % de los vídeos falsos hiperrealistas son pornográficos, y las 4 webs mucho más concurridas de este género de contenidos agrupan mucho más de 134 millones de visualizaciones. Las mujeres conforman el colectivo mucho más perjudicado, más que nada las actrices inglesas y las vocalistas surcoreanas. «Procuran importancia y muchas visualizaciones, y la industria va considerablemente más apuntada a hombres que a mujeres», enseña Josep Navarro, instructor colaborador de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC). Los estudios detectaron veinta webs con foros de discusión en los que forman parte hasta 100.000 integrantes, en su mayor parte —el 90 %— de países occidentales. Su reciente aparición y dado que cada vez sean mucho más dificiles de advertir provoca que las autoridades aún no tengan protocolos para batallar el mal empleo de esta tecnología.

Comprar Leggins
banner-abk