Publicado 14/02/2025 10:29

Portaltic.-Solo el 0,1% de los usuarios es capaz de detectar un 'deepfake'

Ingeniería inversa para detectar 'deepfakes' de Meta
Ingeniería inversa para detectar 'deepfakes' de Meta - META

   MADRID, 14 Feb. (Portaltic/EP) -

   Una investigación llevada a cabo por el proveedor de soluciones biométricas iProov ha determinado que solo el 0,1 por ciento de los usuarios es capaz de distinguir con precisión un 'deepfake' generado por Inteligencia Artificial de un contenido real, siendo los vídeos los contenidos más difíciles de detectar, frente a las imágenes.

   Los 'deepfakes' son vídeos manipulados mediante IA que se utilizan para hacer creer a los usuarios que están viendo a una determinada persona haciendo declaraciones o acciones irreales, mediante el intercambio de rostros en imágenes y la modificación de la voz.

   Si bien esta tecnología solo era apta para desarrolladores hace unos años, ahora está al alcance de cualquier persona, gracias a los avances en tecnologías de clonación de voz y sincronización de labios de código abierto. De ese modo, es posible crear la voz de una persona a partir de una muestra de audio de tan solo unos segundos.

Esta tecnología, cada vez más popular y sofisticada, representa "una amenazaza abrumadora en el panorama digital actual" y ha evolucionado notablemente en los últimos 12 meses, según iProov. Según su Informe de Inteligencia de Amenazas de 2024, el 'deepfake' aumentó un 704 por ciento solo en el intercambio de rostros.

De este modo, el 'deepfake' es capaz de engañar a la mayoría de los usuarios, hasta el punto de que solo el 0,1 por ciento de los usuarios puede distinguir con precisión el contenido real del falso generado por esta tecnología, según un informe reciente realizado por la compañía.

El proveedor de soluciones para la verificación de identidad biométrica ha realizado una encuesta entre 2.000 usuarios de Reino Unido y Estados Unidos y ha determinado que solo ese porcentaje identificó correctamente los detalles que determinan que un contenido está generado con IA.

"En situaciones del mundo real, donde las personas son menos conscientes, la vulnerabilidad a los 'deepfakes' probablemente sea aún mayor", han señalado los expertos en su página web, donde han explicado los principales hallazgos de su estudio.

Sobre esto, han deducido que las generaciones mayores son más vulnerables a los 'deepfakes', debido a que el 30 por ciento de los encuestados de entre 55 y 64 años y el 39 por ciento de los mayores de 65 años nunca habían oído hablar de esta tecnología. Esto destaca "una importante brecha de conocimiento y una mayor susceptibilidad a esta amenaza emergente en este grupo de edad", ha señalado iProov.

Sobre el formato del 'deepfake', la compañía ha señalado que los vídeos resultaron más difíciles de detectar que las imágenes, ya que los participantes demostraron tener un 36 por ciento menos de probabilidades de identificar correctamente un vídeo falso, en comparación con una fotografía estática.

Sobre esta vulnerabilidad, la firma cree que se dan "serias procupaciones" sobre la posibilidad de fraude basado en vídeo, como la suplantación de identidad en videollamadas o en escenarios en los que se utiliza el vídeo para verificar la identidad.

iProov también ha matizado que está muy extendido el exceso de confianza, debido a que más del 60 por ciento de los encuestados afirmaron saber reconocer un contenido generado por IA. Esto se da especialmente entre los adultos jóvenes, de 18 a 34 años.

Sobre esto juega un papel importante las redes sociales, debido a que los servicios de Meta (49%) y TikTok (47%), de ByteDance, son las plataformas en las que más frecuentemente se encuentran 'deepfakes'. Esto ha provocado una menor confianza en la información y los medios 'online', debido a que el 49 por ciento de los usuarios confía menos en las redes sociales después de conocer la existencia de esta técnica fraudulenta.

MOTOR DE LA DESINFORMACIÓN

Otra de las conclusiones a las que se ha llegado tras realizar el sondeo es que los 'deepfakes' están generando preocupación y desconfianza generalizadas, ya que tres de cada cuatro personas -esto es, el 74 por ciento de los encuestados- se preocupan por el impacto social de los 'deepfakes'. Asimismo, las noticias falsas y la desinformación son la principal preocupación para el 68 por ciento de las personas.

A pesar de todo ello, el 29 por ciento no toma ninguna medida cuando se encuentra ante un presunto 'deepfake', lo que se debe a que el 48 por ciento dice que no sabe cómo denunciar estas estafas, mientras que a una cuarta parte de los usuarios no le importa si ve uno de estos engaños y, en consecuencia, no toma ninguna medida para denunciarlo.

El análisis también sostiene que la mayoría de los consumidores no verifican activamente la autenticidad de la información en línea, lo que aumenta su vulnerabilidad a los 'deepfakes'. De ese modo, solo el 11 por ciento de los usuarios analizan de forma crítica la fuente y el contexto de la información que reciben para determinar si se trata de un vídeo o una imagen generada con IA.

iProov ha señalado finalmente que, para combatir esta creciente amenaza, las organizaciones deben adoptar soluciones que empleen tecnología biométrica, que sea capaz de verificar que se trata de una persona la que está intentando ejecutar una acción y que es la correcta, no otra que se haga pasar por ella.

Contador