Deepfake de Elon Musk con toques de hombre cibernético creado con Midjourney.
Deepfake de Elon Musk creado con Midjourney

La evolución de los deepfakes: ¿Estamos preparados para el futuro?

La IA generativa está avanzando a un ritmo endiablado, trayendo consigo tanto maravillas como preocupaciones.

Marcial Triguero
Por Marcial Triguero

La inteligencia artificial generativa está cambiando el panorama digital de manera tan radical que, a veces, cuesta distinguir la realidad de la ficción. Es bastante probable que hayas visto en redes sociales imágenes (vídeos e incluso música) que parecen auténticas, pero que en realidad han sido creadas por IA.

Con el aumento de los deepfakes, la línea entre lo verdadero y lo artificial se está difuminando aún más, y (esto es algo que me «preocupa» a mí y seguro a ti también) el impacto que puede tener en la desinformación es enorme. Por lo que es muy importante hablar sobre cómo la evolución de la IA generativa está complicando la detección de contenido falsificado y qué medidas se están tomando para contrarrestarlo.

¿La inteligencia artificial provocará el fin de las aplicaciones en nuestros teléfonos?

El avance imparable de la IA generativa

La IA generativa está mejorando a pasos agigantados, y eso, aunque es fascinante/llamativo desde el punto de vista tecnológico (sobre todo para los que somos fans de la ‘evolución’), también tiene sus grandes riesgos. Actualmente, las señales que antes nos permitían detectar imágenes generadas por IA, como la extraña flotación de un objeto, las manos, o texturas incoherentes en un elemento de la foto, están desapareciendo a una velocidad de vértigo. Esto significa que los deepfakes son cada día más difíciles de identificar a simple vista (mira la imagen que está tras este párrafo… ni la chica ni el lugar existen. Ha sido creada con Midjourney) y, claro, eso nos pone ante problemas enormes.

Ejemplo de deepfake en el que se ve a una chica haciéndose un selfie.
Deepfake creado con Midjourney

Mike Speirs, de Faculty AI, afirma preocupado: «El tiempo para poder detectar estas imágenes de manera manual se está acabando«. Las técnicas manuales, como identificar errores en texto, pieles demasiado lisas o arrugadas de más, ya no son suficientes. A medida que los modelos de IA se perfeccionan, estas señales se van haciendo cada vez más sutiles. «Ahora toma tiempo y no es algo que puedas escalar. Y el tiempo se acaba – los modelos están mejorando cada vez más.«

Es evidente que estamos ante una carrera contrarreloj (la IA va mucho más rápida que nosotros): necesitamos desarrollar nuevas metodologías que vayan más allá de las tradicionales para detectar estas creaciones antes de que sean idénticas a la realidad. La pregunta que muchos nos hacemos (y aquí te incluyo) es si seremos capaces de adelantarnos de alguna manera y establecer métodos efectivos antes de que sea demasiado tarde.

La escalabilidad es otro de los grandes desafíos. Lo que quiero decir con esto es que, incluso cuando identificamos una imagen falsa, hacerlo a gran escala es un proceso lento y costoso. Y, como la generación de imágenes falsas se hace más accesible y rápida (en muchos casos gratuitamente), necesitamos soluciones que también lo sean.

Nota

Cuando veas una imagen que te genere dudas, haz un esfuerzo adicional por verificar su origen. Hacer una búsqueda inversa de la imagen o tratar de encontrarle un poco de contexto puede desvelar la realidad oculta tras una foto impactante.

YouTube video
Deepfake imitando a Tom Cruise – Fuente: Today

Herramientas y versiones de IA en la generación de imágenes

Nuestra realidad digital actual incluye nombres como Dall-E de OpenAI, que desde 2021 ha lanzado tres versiones, cada una más avanzada que la anterior (las obras de arte que genera son tan impresionantes como preocupantes). No podemos olvidar a competidores como Midjourney (esta incluso va más allá que Dall-E) y Stable Diffusion (de código abierto), sin mencionar la propuesta de Google, Gemini.

La accesibilidad a estas tecnologías también es un tema clave. La integración de Dall-E en herramientas como ChatGPT y el buscador Bing, así como las herramientas gratuitas de Google, ponen un poder creativo sin precedentes en nuestras manos, pero también nos hace plantearnos cuestiones éticas y de seguridad que no debemos pasar por alto.

Estrategias de las empresas tecnológicas frente a los medios generados por IA

Las empresas tecnológicas no se quedan de brazos cruzados ante este fenómeno. Una iniciativa esperanzadora es la de la Coalition for Content Provenance and Authenticity, que cuenta con pesos pesados como la BBC, Google, Microsoft y Sony entre sus miembros.

La adopción de estándares para la colocación de marcas de agua y etiquetas es un paso adelante, y OpenAI ya los está implementando en la versión más reciente de Dall-E. A través de estas marcas, se busca añadir una capa de transparencia a las imágenes generadas, aunque como ya hemos visto (y como apunta Mike Speirs), esto puede llevar a una falsa sensación de seguridad.

Meta, por su parte, está añadiendo etiquetas a contenido generado por IA en sus plataformas y promete eliminar los posts que no estén debidamente etiquetados. Pero aquí sale a la relucir un punto crítico: (y es algo que te recomiendo tener en cuenta) ¿podemos confiar ciegamente en las imágenes sin marcas de agua, simplemente porque no llevan una? La eliminación de estas marcas puedes hacerse simplemente recortando la imagen e incluso con otras IA que no están ‘reguladas’ de forma MUY sencilla. E incluso con borradores como con el que cuenta Google Fotos.

El reto va más allá cuando nos damos cuenta de que la universalidad del etiquetado es aún un ideal lejano. Sin ir más lejos, proyectos como Stable Diffusion, al ser de código abierto, permiten generar imágenes sin marcas de agua, complicando todavía más la autenticación del contenido.

La búsqueda de detección automática de contenido generado por IA

Si pensábamos que identificar un deepfake era simplemente un juego de niños, créeme, nos esperan sorpresas. La detección automática es el siguiente campo de batalla y, aunque parece una tarea hercúlea, hay progresos que me gustaría contarte. Es una contienda de nervios, donde la tecnología de detección y la generación de imágenes falsas se están ensalzando en una guerra que parece que no tendrá fin.

Logically, una empresa que se dedica a la verificación de contenido, ha estado intentando automatizar este proceso durante cinco años, y la verdad es que no está siendo un camino de rosas. A día de hoy, su precisión ronda el 70% y eso nos dice mucho sobre la complejidad del asunto (no es por desanimarte, pero hay que ser realistas).

El enfoque requiere combinar IA con métodos manuales para afinar la detección. Para ponerte en perspectiva, digamos que la IA es un detective que, aunque es muy hábil, necesita de vez en cuando confirmar sus sospechas con un humano (algo así como Sherlock Holmes y Watson, pero en el mundo digital).

Y no solo se trata de mejorar las herramientas de detección, sino también de entender el comportamiento de quienes difunden desinformación. Es un juego del ratón y el gato en el que hay que ser más listo que el adversario.

Análisis de patrones sospechosos y estrategias para identificarlos

Para llevar la delantera, algunos expertos sugieren poner el ojo en el comportamiento de los actores de desinformación online, anticipando sus movimientos en foros como 4chan y Reddit. (Te lo digo yo, que paso bastante tiempo en algunas de estas redes).

También hay que estar alerta a patrones de comportamiento de las cuentas sospechosas, que pueden haber sido cooptadas por actores estatales. Aquí se complica la cosa, porque diferenciar si estamos ante una campaña de desinformación o ante usuarios compartiendo información inocente (por las risas…), es todo un reto.

En fin, que identificar deepfakes de manera automática es crucial para lidiar con la avalancha de imágenes falsas, y aunque el camino es complicado, no soy muy optimista sobre las soluciones que se están creando (hablamos de una lucha de tecnología IA contra la tecnología IA…).

La tecnología como parte de la solución, pero no la única

Y aquí llegamos al meollo de la cuestión: la tecnología es una aliada indispensable, pero la educación y la concienciación son igualmente claves. No podemos subestimar el poder del engaño y la credulidad humana (sobre todo para los más alejados de la tecnología).

Debemos combinar herramientas de detección avanzadas con un esfuerzo educativo que nos permita reconocer y desenmascarar la desinformación (a fin de cuentas, de poco sirve un buen antivirus si uno acaba haciendo clic en todos los enlaces sospechosos que encuentra en internet).

El panorama es complejo, pero me gustaría pensar que es posible un futuro en el que los deepfakes no sean una amenaza constante. Para ello, seguiremos necesitando mentes brillantes que desarrollen tecnología sofisticada y personas informadas y alertas.

La lucha contra los deepfakes está lejos de acabar

Estamos en una carrera tecnológica y educativa para combatir los deepfakes. La detección automática y la reducción de su circulación son esenciales, pero también lo es promover una cultura de escepticismo saludable y verificación de la información. También debemos de tener clara una cosa: esto simplemente acaba de empezar.

Espero que esta inmersión en el estado actual de la IA generativa y la lucha contra los deepfakes te haya resultado interesante y, sobre todo, útil.

Comparte este Artículo
Sígueme en redes:
Veterano de la tecnología con más de 20 años de trayectoria, apasionado por los dispositivos móviles, la domótica y la inteligencia artificial. Además de mi fascinación por el cine y las series, tengo una sólida experiencia en administración de servidores y bases de datos. Comprometido con el aprendizaje continuo, busco siempre estar al día con las últimas tendencias tecnológicas.
Deja tu comentario