No caigas en estafas con “deepfake”, te roban tu dinero
|- ¿Cómo identificar estos fraudes con IA?
Farid Becerra
Martínez de la Torre, Ver.
El deepfake, ciberdelito en el que los atacantes suplantan identidades con inteligencia artificial, es utilizado para fraudes en nombre de políticos y periodistas. Expertos de TELMEX-Scitum alertan sobre estas estafas y señalan cómo identificarlas para no caer en ellas.
Los expertos de la compañía han observado múltiples casos de deepfake en redes sociales. Sin embargo, también reconocen que, hasta el momento, no han recibido reportes por este tipo de ataques cibernéticos. “Quizás no lo reportan por vergüenza”, señalan.
Así te estafan con ayuda de la inteligencia artificial
A lo largo de los últimos meses, circularon videos falsos en redes sociales. En ellos, se veía a personajes políticos de alto nivel llamando a invertir en la compra de petróleo, describen los especialistas.
“Reporteros y políticos salen ofertando supuestas promociones, membresías, suscripciones y servicios relacionados con alguna empresa. Generalmente, son empresas que supuestamente se dedican al tema del petróleo. Los videos son falsos, están editados y producidos con inteligencia artificial. Las empresas también son falsas”: Expertos de TELMEX-Scitum.
Los atacantes, que no han sido identificados aún, se han aprovechado de la reputación de dichos personajes para hacer pensar a la gente que se trata de inversiones reales. Como consecuencia, las víctimas regalan su dinero sin opción de recuperarlo.
Debido a estos casos con fines fraudulentos, diversas dependencias federales se han deslindado de casos similares y se encuentran observando suplantaciones con inteligencia artificial, dicen los expertos de TELMEX-Scitum.
Otras amenazas por el uso del deepfake
El deepfake consiste en imágenes, audios y videos alterados con inteligencia artificial. Los ciberatacantes pueden tomar la imagen de una persona para estafar o incluso crear fotografías de carácter pornográfico para extorsionar a la víctima.
Otro riesgo, reconocido por los expertos de TELMEX-Scitum, es su potencial para que se cometan secuestros express. “Ahora le llaman a tu mamá diciéndole que te secuestraron, pero con tu voz. Debes tener una palabra o frase clave con tus seres queridos, que no la sepa nadie más”, aconsejan.
Los deepfakes también facilitan la oferta de créditos falsos, ya que, se usa la identidad de las personas famosas para robarle su dinero e información a los usuarios.
Por otro lado, la empresa mexicana se reconoce preocupada por el hecho de que las compañías y organizaciones también puedan ser comprometidas con transferencias maliciosas.
Finalmente, los especialistas reconocen que los fraudes de plataformas de inversión podrían duplicarse en el futuro próximo, sobre todo por el aumento de información y datos que circulan en internet.
¿Cómo identificar estos videos y audios falsos?
La principal clave para identificar un video de deepfake es que las personas que aparecen casi no parpadean, pues la inteligencia artificial no ha logrado replicar el parpadeo constante del ser humano, según los expertos.
Otro aspecto común de los deepfakes es que, las principales víctimas de estas suplantaciones de identidad son personalidades con alta presencia en redes. “Entre más material hay de ellos, más propensos son”, dice TELMEX-Scitum.
Así puedes evitar caer en estos engaños
La empresa mexicana de ciberseguridad hace un llamado a no creer en todos los videos o audios que se ven en internet. Al ver algo que pueda parecer sospechoso, los especialistas recomiendan investigar por su cuenta.
“Si una promoción de este tipo está saliendo y hay más personas que lo están publicando, hay que desconfiar si prometen cosas irrealizables. En caso de sospechar algo raro, ya sea que me pidan dinero o que instale algo, hay que llamar para confirmar si de verdad la persona es quien dice ser”.: Expertos de TELMEX-Scitum.
Además, los expertos mexicanos hacen un llamado a divulgar la existencia de cualquier deepfake con amigos y familiares en cuanto se haya percatado de las suplantaciones.