Estafas con IA: Cómo protegerte

0
410

La inteligencia artificial (IA) se ha convertido en una herramienta poderosa para diversas actividades, desde redactar correos electrónicos y crear arte conceptual hasta, lamentablemente, estafar a personas vulnerables haciéndoles creer que un amigo o familiar está en apuros. La versatilidad de la IA es impresionante, pero debido a que algunas personas prefieren no ser estafadas, es importante hablar sobre cómo protegerse.

En los últimos años, hemos visto un gran aumento no solo en la calidad de los medios generados, desde texto hasta audio, imágenes y video, sino también en la facilidad y economía para crearlos. Las mismas herramientas que ayudan a un artista conceptual a crear monstruos o naves espaciales de fantasía, o que permiten a un hablante no nativo mejorar su inglés comercial, también pueden ser usadas con fines maliciosos.

No espere que Terminator llame a su puerta para venderle un esquema Ponzi: estas son las mismas viejas estafas de siempre, pero ahora con un toque generativo de IA que las hace más fáciles, baratas o convincentes.

Esta no es una lista completa, solo algunos de los trucos más obvios que la IA puede potenciar. Nos aseguraremos de agregar nuevos trucos a medida que aparezcan, así como medidas adicionales que pueda tomar para protegerse.

Clonación de voz de familiares y amigos

Las voces sintéticas han existido durante décadas, pero solo en los últimos dos años, los avances tecnológicos han permitido generar una voz nueva con solo unos pocos segundos de audio. Esto significa que cualquier persona cuya voz haya sido transmitida públicamente (por ejemplo, en un informe de noticias, un video de YouTube o en las redes sociales) es vulnerable a la clonación de voz.

Los estafadores pueden y han utilizado esta tecnología para producir versiones falsas convincentes de seres queridos o amigos. Por ejemplo, un padre puede recibir un mensaje de voz de un número desconocido que suena como su hijo, diciendo que le robaron sus cosas mientras viajaba y que necesita dinero urgente. Variantes de esta estafa pueden incluir problemas con el coche, problemas médicos, etc.

Para combatir la clonación de voz:

  1. No intentes detectar una voz falsa. La tecnología es cada vez mejor y puede engañar incluso a expertos.
  2. Sospecha de cualquier mensaje de un número, dirección de correo electrónico o cuenta desconocida. Contacta directamente a la persona para verificar.
  3. Ignora mensajes sospechosos. Los estafadores tienden a no hacer seguimiento si son ignorados.

Phishing y spam personalizados a través de correo electrónico y mensajería

La IA generadora de texto permite enviar correos electrónicos masivos personalizados para cada individuo, utilizando datos personales disponibles debido a frecuentes filtraciones. Con algunos datos personales, un modelo de lenguaje puede crear correos electrónicos muy creíbles que parecen venir de una persona real.

Para combatir el spam de correo electrónico:

  1. Vigila constantemente. No esperes detectar fácilmente el texto generado por IA.
  2. No abras archivos adjuntos o enlaces sospechosos. A menos que estés 100% seguro de la autenticidad e identidad del remitente.
  3. Reenvía mensajes sospechosos a alguien con conocimientos para su revisión.

Fraude de identidad y verificación de identidad falsa

Con tantos datos personales disponibles en línea y clips de voz, es cada vez más fácil crear una persona de IA que suene como una persona objetivo y tenga acceso a muchos de los datos utilizados para verificar la identidad. Esto facilita que los estafadores consigan privilegios indebidos.

Para combatir el fraude de identidad:

  1. Practica la ciberseguridad básica. Cambia contraseñas, habilita la autenticación multifactor, etc.
  2. Utiliza la autenticación multifactor. Cualquier actividad importante en tu cuenta debe ser notificada directamente a tu teléfono.
  3. No ignores advertencias de seguridad. Incluso si recibes muchas, no las marques como spam.

Deepfakes y chantaje generados por IA

Una de las estafas más aterradoras de la IA es el chantaje utilizando imágenes falsas. Las imágenes íntimas generadas por IA pueden ser usadas para extorsionar, incluso si nunca existieron imágenes reales. Las imágenes pueden no ser completamente convincentes, pero pueden asustar lo suficiente como para que la víctima pague.

Para combatir los deepfakes:

  1. Recuerda que las imágenes falsas pueden carecer de marcas distintivas y ser obviamente erróneas en algunos aspectos.
  2. Busca recursos legales y privados. A medida que el problema crece, también lo harán los medios para combatirlo.
  3. Denuncia a la policía. Esto no es solo una estafa, es acoso, y puede haber acciones que la policía o los ISPs pueden tomar.

La inteligencia artificial puede ser una herramienta maravillosa, pero es vital estar al tanto de sus posibles usos maliciosos y tomar medidas para protegerse.

Dejar respuesta

Please enter your comment!
Please enter your name here