kaspersky estafas con deepfake
Noticias

¿Los influencers te pueden estafar? Kaspersky advierte sobre el peligro de los deepfakes

La empresa de ciberseguridad explica cómo reconocer un deepfake para no convertirse en víctima de fraudes.

El avance de la tecnología le ha permitido a los delincuentes encontrar nuevas formas de estafar a las personas, especialmente si estas no tienen conocimiento sobre las nuevas técnicas que pueden ser utilizadas para el robo de su información, por lo que Kaspersky recomienda estar al tanto de las noticias para poder tomar las medidas necesarias para evitar ser victima de la ciberdelincuencia.

Te recomendamos leer: Kaspersky: Estos son los propósitos digitales para los mexicanos en 2024

A inicios de año, los expertos de Kaspersky alertaron que los cibercriminales podrían seguir explotando las herramientas de Inteligencia Artificial (IA) para crear contenidos engañosos más convincentes y accesibles, aumentando los riesgos asociados con los deepfakes. Esta tecnología consiste en imágenes, videos, e incluso audios y textos, alterados para mostrar información diferente a la original, por ejemplo, para que una persona suplante a otra. Recientemente, en distintos países han circulado distintos videos deepfakes de celebridades para publicitar falsos juegos de apuestas con el objetivo de robar dinero a las víctimas. En otros países como México, se han promocionado videos manipulados con IA promocionando “productos milagro” o “inversiones” que en realidad son una estafa.

Bestseller No. 1 Antivirus Kaspersky Internet Security 2022 1 dispositivo 1 año tarjeta de activacion a domicilio
Bestseller No. 2 Kaspersky Lab Anti-virus Kaspersky - 1 Año 5 Dispositivos
Bestseller No. 3 Kaspersky Antivirus Standard 3 Usuarios PC 1 año

El 62% de los mexicanos no saben lo que es un “Deepfake”

Ya que la mayoría de los mexicanos no sabe qué es un deepfake (72%) y tampoco sabe reconocer un contenido de este tipo (62%), aunado a que es una amenaza que se verá constantemente este año, Kaspersky explica cómo funciona y comparte recomendaciones para que los usuarios sepan identificar los contenidos falsos.

Ejemplos de videos falsos de figuras públicas circulando en redes sociales

A medida que el uso de la IA se va generalizando y haciendo más accesible, el riesgo de ser víctima de deepfakes es cada vez mayor, ya que, apoyados en esta tecnología, los estafadores pueden extraer fácilmente videos e imágenes de sus objetivos potenciales para alterarlos. Los expertos de Kaspersky han descubierto que quienes buscan crear contenido multimedia falso suelen recurrir a la Darknet, donde existe una demanda significativa de este tipo de contenido. Los usuarios buscan activamente a personas que puedan crear videos falsos para ellos y, como estos casos, solicitan que sean de objetivos específicos, como celebridades o figuras políticas.

Esto para después utilizarlos con fines maliciosos, como chantaje, venganza, acoso o cometer fraudes financieros. Los recientes deepfakes, por ejemplo, difundidos en redes sociales, tienen como objetivo robar el dinero de los usuarios, convenciéndolos de que van a invertir en instituciones reconocidas y obtener grandes rendimientos o comprar productos que les ayudarán a mejorar su salud, aprovechando la necesidad económica y de una mejor calidad de vida de las personas, suponiendo un riesgo mayor para ellas.

  Isabel Manjarrez, Investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky, comenta:

“Nos enfrentamos a un escenario de manipulación digital avanzada que compromete la verdad, y nos exige a todos ser conscientes de este fenómeno. En un mundo donde la línea entre la realidad y la ficción digital es cada vez más difusa, debemos consumir los contenidos digitales con responsabilidad, siendo cuidadosos de lo que leemos y escuchamos, y evitando promover la desinformación compartiendo noticias, videos y audios falsos”

“En el mundo actual, es muy importante no creer todo lo que se lee y se escucha en Internet”

Reconocer un deepfake puede ser complicado, ya que las técnicas de manipulación digital evolucionan constantemente. Sin embargo, Kaspersky recomienda algunos consejos para detectar este tipo de contenidos:

  • Anomalías faciales y corporales. Busca incoherencias en los movimientos faciales, expresiones o movimientos corporales que parezcan extraños o poco naturales. Detecta desalineaciones en los ojos, la boca u otras partes de la cara.
  • Sincronización labial y expresiones. Comprueba que las palabras correspondan correctamente con los movimientos de los labios y que las expresiones faciales son apropiadas para el contexto del video.
  • Iluminación y sombreado. Evalúa si la iluminación del rostro corresponde con el entorno. Las incoherencias en la iluminación pueden indicar manipulación.
  • Conciencia y educación. Sé consciente de la existencia de los deepfakes y edúcate sobre las tecnologías de manipulación digital. Cuanto más consciente seas, mejor podrás detectar posibles fraudes.
  • Cuidado con los sitios web falsos. Si tienes dudas sobre un sitio web o una aplicación, no introduzcas tus datos ni realices pagos. Visita directamente los sitios oficiales, así como redes sociales de las instituciones o figuras públicas para verificar la información.
  • Utiliza soluciones como Kaspersky Premium, que protegen contra todo tipo de amenazas, conocidas y desconocidas en la navegación en Internet, tanto en computadoras como en dispositivos móviles.

Más información |  Kaspersky.

Publicaciones Similares

¿El calor y la humedad de la primavera pueden dañar tu smartphone, tablet o PC?

Cristal Martinez

Kaspersky: Consejos para que aprendas a identificar estafas y no caigas en ellas

Cristal Martinez

Celebra a mamá en su día con el mejor smartphone HONOR Magic6 Pro

Cristal Martinez

Clip: 4 beneficios que empodera a madres emprendedoras mediante pagos digitales

Jonathan Blancas

Deja un Comentario

Deja un Review

Este sitio usa cookies para mejorar tu experiencia en BOTechNews. Queremos asegurarnos que estés de acuerdo, aunque puedes elegir deshabilitarlo. Aceptar Leer más