Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí

Enviar Sugerencia
Conectarse a través de Whatsapp
Temas del día:
Buscar
Temas |Tecnología

Inteligencia Artificial: los audios y videos falsos, “una epidemia”

El avance de los deepfakes preocupa entre los especialistas. Se trata de contenido multimedia sintético generado por IA que se encuentra disponible a través de aplicaciones

Inteligencia Artificial: los audios y videos falsos, “una epidemia”

Ilustración del momento en el que se produce el deepfake con IA y el intercambio de caras en la edición de vídeo / Generada con IA

14 de Abril de 2024 | 07:38
Edición impresa

En un mundo cada vez más interconectado, donde la tecnología avanza a pasos agigantados, surgen desafíos que ponen a prueba la seguridad y la confianza en el entorno digital. Una de estas amenazas, que ha cobrado relevancia en los últimos tiempos, es el fenómeno de los deepfakes. El Observatorio de Cibercrimen y Evidencia Digital en Investigaciones Criminales de la Universidad Austral (OCEDIC) ha lanzado una advertencia contundente sobre su avance y sus potenciales consecuencias.

Los deepfakes son contenido multimedia sintético generado por Inteligencia Artificial (IA), disponibles a través de aplicaciones como FaceApp o Deep Face Lab, entre otras. Esta tecnología permite la creación de videos o audios falsos de personas, que se perciben como auténticos, expresando ideas o palabras que en realidad nunca pronunciaron. Esta capacidad de manipulación presenta un riesgo significativo, especialmente en el ámbito empresarial, donde las corporaciones son blanco de posibles fraudes en línea.

En el marco de la presentación del libro “Ciberfraudes: Criptoactivos y Blockchain”, a cargo de la fiscal Daniela Dupuy, directora de OCEDIC, se profundizó en esta modalidad delictiva que trasciende fronteras debido a la transnacionalidad de quienes la cometen. Dupuy destacó que “la amenaza más significativa de la IA ofensiva es su capacidad para mejorar algunos de los ataques de ingeniería social, como utilizar deepfakes para clonar la voz de directores ejecutivos o la imagen de ciudadanos respetables”.

Un informe de la Fundación Carnegie para la Paz Internacional subraya la amenaza que representan los deepfakes en diferentes formas de fraudes de identidad, permitiendo a los atacantes mejorar su capacidad para engañar a los humanos añadiendo un plus de autenticidad. Esta herramienta no solo compromete la seguridad financiera, sino que también puede socavar la confianza en instituciones y figuras de autoridad.

La utilización de chatbots de IA, como ChatGPT, también puede potenciar actividades fraudulentas al permitir a los estafadores crear mensajes convincentes con una excelente gramática, dificultando la identificación de posibles engaños. Esto plantea desafíos adicionales en la lucha contra el fraude en línea, ya que los métodos tradicionales de detección pueden resultar insuficientes ante estas nuevas técnicas de manipulación.

Casos recientes ilustran el impacto devastador que pueden tener los deepfakes. Desde la transferencia de grandes sumas de dinero a cuentas controladas por estafadores, bajo la creencia errónea de estar siguiendo órdenes legítimas, hasta la manipulación de videos para inducir a empleados a realizar acciones perjudiciales para sus empresas. Estos ejemplos demuestran la sofisticación y la peligrosidad de esta forma emergente de fraude.

En cuanto a la prevención de estas estafas, se ha observado que los mecanismos para identificar los deepfakes suelen estar por detrás de las herramientas que los producen. Es por ello que desde OCEDIC se promueve la concientización y la formación de especialistas y ciudadanos en la detección de posibles engaños en línea. Además, se insta a las empresas a implementar protocolos de doble verificación en sus programas de cumplimiento corporativo, especialmente en lo que respecta a transferencias financieras y cambios en la información de cuentas bancarias.

En resumen, el avance de los deepfakes representa una amenaza global en el ciberespacio, con implicaciones que van más allá del ámbito financiero. Es necesario un enfoque integral que combine la vigilancia tecnológica con la educación y la concientización pública para hacer frente a este desafío creciente. Solo así podremos mitigar el impacto de estas herramientas fraudulentas y proteger la integridad y la confianza en el mundo digital.

El Observatorio de Cibercrimen y Evidencia Digital en Investigaciones Criminales de la Universidad Austral es un espacio dedicado a centralizar los últimos avances en materia de cibercrimen. Desde la investigación doctrinaria y jurisprudencial hasta el análisis de herramientas forenses disruptivas, OCEDIC se posiciona como un referente en la comprensión y prevención de la delincuencia en el mundo digital. Con un enfoque multidisciplinario, busca no solo identificar los riesgos y desafíos actuales, sino también desarrollar estrategias efectivas para enfrentarlos.

Un método para solucionarlo

Un equipo de investigadores de la Universidad de Buffalo, en Estados Unidos, afirma haber encontrado una solución prometedora: mirar a los ojos. Este enfoque podría ser el bálsamo que necesitamos para desentrañar la maraña de falsificaciones que inundan nuestros medios digitales.

Los deepfakes, esas representaciones audiovisuales generadas por algoritmos, pueden ser utilizados de manera benigna en la industria del cine o la publicidad, pero también representan una amenaza significativa. Desde engañar al consumidor hasta influir en decisiones políticas, su impacto puede ser devastador si no se detectan a tiempo.

La clave de este novedoso enfoque radica en la peculiaridad de la mirada humana y la incapacidad de las IA para replicarla con precisión. Mientras que los seres humanos tendemos a subestimar el valor de este aspecto, las máquinas enfrentan un desafío monumental al intentar recrear los reflejos oculares de manera auténtica.

Los investigadores señalan que las IA no logran reproducir de manera fiel los reflejos en los ojos. A menudo, estos reflejos carecen de coherencia, mostrando elementos distintos en cada ojo o simplemente careciendo de sentido. Es en esta discrepancia donde reside la oportunidad de detectar un deepfake.

Según el estudio realizado por la Universidad de Buffalo, la córnea, esa delgada capa transparente que cubre el ojo, actúa como un espejo, reflejando la luz que incide sobre ella. En condiciones normales, cualquier objeto luminoso frente a una persona debería reflejarse en sus ojos. Sin embargo, las IA carecen de esta capacidad natural y deben inventar estos reflejos artificialmente, y lo hacen con fallos evidentes.

Para validar su teoría, los investigadores sometieron imágenes falsas generadas por IA, provenientes de sitios como “This Person Does Not Exist”, a su algoritmo de detección. Compararon meticulosamente los reflejos en los ojos de estas imágenes con las de personas reales, obtenidas de “Flick Faces HQ”. El resultado fue sorprendente: una tasa de detección del 94%.

El autor principal del estudio destaca que los reflejos en ambos ojos deberían ser notablemente similares, ya que ambos están “viendo lo mismo”. Sin embargo, esta similitud es pasada por alto en nuestra percepción cotidiana. Es aquí donde la mirada computacional se convierte en una herramienta invaluable para identificar imágenes falsas.

No obstante, es importante destacar que esta herramienta aún no es infalible. Un margen de error del 6% deja espacio para mejoras y refinamientos. Además, las IA evolucionan constantemente, aprendiendo de sus errores y adaptándose a nuevas técnicas de detección. Es solo cuestión de tiempo antes de que dominen la creación de reflejos oculares perfectos, desafiando aún más nuestra capacidad para discernir lo auténtico de lo falso.

Este enfoque no es nuevo; en el pasado, otras herramientas también han explorado la detección de deepfakes a través de los ojos. Incluso la Policía Europea ha iniciado esfuerzos para combatir esta creciente amenaza. Sin embargo, el trabajo de los investigadores de la Universidad de Buffalo representa un avance significativo en esta carrera contra la falsedad digital.

Se trata de representaciones algorítmicas que se usan de diversas maneras

El avance de los deepfakes representa una amenaza global en el ciberespacio

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE

ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES

HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS

Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales

¿Ya tiene suscripción? Ingresar

Básico Promocional

$120/mes

*LOS PRIMEROS 3 MESES, LUEGO $2250

Acceso ilimitado a www.eldia.com

Suscribirme

Full Promocional

$160/mes

*LOS PRIMEROS 3 MESES, LUEGO $3450

Acceso ilimitado a www.eldia.com

Acceso a la versión PDF

Beneficios Club El Día

Suscribirme
Ir al Inicio
cargando...
Básico Promocional
Acceso ilimitado a www.eldia.com
$120.-

POR MES*

*Costo por 3 meses. Luego $2250.-/mes
Mustang Cloud - CMS para portales de noticias

Para ver nuestro sitio correctamente gire la pantalla