Estafas impulsadas por IA y qué puedes hacer al respecto

La IA está aquí para ayudar, ya sea que esté redactando un correo electrónico, creando algún arte conceptual o estafando a personas vulnerables haciéndoles pensar que es un amigo o un familiar en apuros. ¡La IA es tan versátil! Pero como algunas personas prefieren no ser estafadas, hablemos un poco sobre a qué prestar atención.

En los últimos años se ha producido un enorme aumento no solo en la calidad de los medios generados, desde textos hasta audios, imágenes y vídeos, sino también en la facilidad y el bajo coste de creación de dichos medios. El mismo tipo de herramienta que ayuda a un artista conceptual a crear monstruos fantásticos o naves espaciales, o que permite a un hablante no nativo mejorar su inglés comercial, también puede utilizarse con fines maliciosos.

No esperes que Terminator llame a tu puerta y te venda un esquema Ponzi: son las mismas viejas estafas que hemos enfrentado durante años, pero con un giro de inteligencia artificial generativa que las hace más fáciles, más baratas o más convincentes.

Esta no es de ninguna manera una lista completa, solo algunos de los trucos más obvios que la IA puede potenciar. Nos aseguraremos de agregar noticias a medida que aparezcan en el mercado, o cualquier medida adicional que pueda tomar para protegerse.

Clonación de voz de familiares y amigos

Las voces sintéticas existen desde hace décadas, pero sólo en los últimos dos años los avances en la tecnología han permitido generar una nueva voz a partir de tan solo unos pocos segundos de audio. Eso significa que cualquier persona cuya voz alguna vez haya sido transmitida públicamente (por ejemplo, en un informe de noticias, un video de YouTube o en las redes sociales) es vulnerable a que su voz sea clonada.

Los estafadores pueden y han utilizado esta tecnología para producir versiones falsas convincentes de seres queridos o amigos. Se les puede hacer decir cualquier cosa, por supuesto, pero para realizar una estafa, lo más probable es que hagan un clip de voz pidiendo ayuda.

Por ejemplo, un padre puede recibir un mensaje de voz de un número desconocido que suena como el de su hijo, diciendo que le robaron sus cosas mientras viajaba, que una persona le permitió usar su teléfono y que mamá o papá podrían enviar algo de dinero a esta dirección, destinatario de Venmo, empresa, etc. Uno puede imaginar fácilmente variantes con problemas con el auto (“no me entregarán el auto hasta que alguien les pague”), problemas médicos (“este tratamiento no está cubierto por el seguro”), etc.

¡Este tipo de estafa ya se ha hecho usando la voz del presidente Biden! Atraparon a los que estaban detrás de eso, pero los estafadores del futuro tendrán más cuidado.

¿Cómo podemos luchar contra la clonación de voz?

Primero, no te molestes en intentar detectar una voz falsa. Mejoran cada día y hay muchas formas de disimular cualquier problema de calidad. ¡Incluso los expertos se dejan engañar!

Cualquier cosa que provenga de un número, dirección de correo electrónico o cuenta desconocida debe considerarse automáticamente sospechosa. Si alguien dice que es su amigo o ser querido, continúe y comuníquese con la persona como lo haría normalmente. Probablemente te dirán que están bien y que es (como habrás adivinado) una estafa.

Los estafadores tienden a no hacer un seguimiento si se les ignora, mientras que un miembro de la familia probablemente lo hará. Está bien dejar un mensaje sospechoso en la lista de leídos mientras piensas en ello.

Phishing y spam personalizados vía correo electrónico y mensajería

Todos recibimos spam de vez en cuando, pero la IA generadora de texto hace posible enviar correos electrónicos masivos personalizados para cada individuo. Dado que las filtraciones de datos ocurren con regularidad, muchos de sus datos personales están disponibles.

Una cosa es recibir uno de esos correos electrónicos fraudulentos del tipo “¡Haga clic aquí para ver su factura!” con archivos adjuntos obviamente aterradores que parecen no haber requerido mucho esfuerzo. Pero con un poco de contexto, de repente se vuelven bastante creíbles, y utilizan ubicaciones, compras y hábitos recientes para que parezcan una persona real o un problema real. Armado con algunos datos personales, un modelo de lenguaje puede personalizar un genérico de estos correos electrónicos para miles de destinatarios en cuestión de segundos.

Entonces, lo que antes era “Estimado cliente, encuentre su factura adjunta” se convierte en algo como “¡Hola Doris! Estoy con el equipo de promociones de Etsy. ¡Un artículo que estabas mirando recientemente ahora tiene un 50 % de descuento! Y el envío a su dirección en Bellingham es gratuito si utiliza este enlace para reclamar el descuento”. Un ejemplo simple, pero aún así. Con un nombre real, hábito de compra (fácil de descubrir), ubicación general (ídem), etc., de repente el mensaje es mucho menos obvio.

Al final, estos siguen siendo sólo spam. Pero este tipo de spam personalizado alguna vez tuvo que ser realizado por personas mal pagadas en granjas de contenido en países extranjeros. ¡Ahora puede hacerlo a escala un LLM con mejores habilidades en prosa que muchos escritores profesionales!

¿Cómo puedes luchar contra el spam de correo electrónico?

Al igual que con el spam tradicional, la vigilancia es su mejor arma. Pero no espere poder distinguir el texto generado del texto escrito por humanos en la vida real. Hay pocos que puedan hacerlo, y ciertamente no otro modelo de IA (a pesar de las afirmaciones de algunas empresas y servicios).

Por muy mejorado que esté el texto, este tipo de estafa todavía tiene el desafío fundamental de lograr que usted abra archivos adjuntos o enlaces incompletos. Como siempre, a menos que esté 100% seguro de la autenticidad y la identidad del remitente, no haga clic ni abra nada. Si no estás seguro, aunque sea un poco, y es una buena idea cultivarlo, no hagas clic, y si tienes a alguien con conocimientos a quien reenviarlo para que lo revise un segundo par de ojos, hazlo.

Fraude de identificación y verificación ‘falso’

Debido a la cantidad de filtraciones de datos en los últimos años (¡gracias, Equifax!), es seguro decir que casi todos tenemos una buena cantidad de datos personales flotando en la web oscura. Si sigues buenas prácticas de seguridad en línea, gran parte del peligro se mitiga porque cambiaste tus contraseñas, habilitaste la autenticación multifactor, etc. Pero la IA generativa podría presentar una nueva y grave amenaza en este ámbito.

Con tanta información sobre alguien disponible en línea y, para muchos, incluso un fragmento o dos de su voz, es cada vez más fácil crear un personaje de IA que suene como una persona objetivo y tenga acceso a gran parte de los datos utilizados para verificar la identidad.

Piénselo así. Si tuviera problemas para iniciar sesión, no pudiera configurar correctamente su aplicación de autenticación o perdiera su teléfono, ¿qué haría? Probablemente llame al servicio de atención al cliente y ellos “verificarán” su identidad utilizando algunos datos triviales como su fecha de nacimiento, número de teléfono o número de Seguro Social. Incluso métodos más avanzados como “tomar una selfie” son cada vez más fáciles de utilizar.

El agente de atención al cliente (que por lo que sabemos, ¡también es una IA!) puede muy bien complacer a este falso usted y otorgarle todos los privilegios que tendría si realmente llamara. Lo que pueden hacer desde esa posición varía mucho, ¡pero nada de eso es bueno!

Al igual que con los demás en esta lista, el peligro no es tanto cuán realista sería esta falsificación, sino que es fácil para los estafadores realizar este tipo de ataque de manera amplia y repetida. No hace mucho, este tipo de ataque de suplantación de identidad era costoso y requería mucho tiempo y, como consecuencia, se limitaría a objetivos de alto valor, como personas ricas y directores ejecutivos. Hoy en día, se podría crear un flujo de trabajo que creara miles de agentes de suplantación de identidad con una supervisión mínima, y ​​estos agentes podrían llamar de forma autónoma a los números de servicio al cliente en todas las cuentas conocidas de una persona, ¡o incluso crear otras nuevas! Sólo unos pocos necesitan tener éxito para justificar el coste del ataque.

¿Cómo puedes luchar contra el fraude de identidad?

Tal como era antes de que llegaran las IA para reforzar los esfuerzos de los estafadores, “Ciberseguridad 101” es su mejor opción. Tus datos ya están disponibles; No puedes volver a poner la pasta de dientes en el tubo. Pero tu poder asegúrese de que sus cuentas estén adecuadamente protegidas contra los ataques más obvios.

La autenticación multifactor es, sin duda, el paso más importante que se puede dar en este sentido. Cualquier tipo de actividad importante en la cuenta se transmite directamente a tu teléfono, y los inicios de sesión sospechosos o los intentos de cambiar contraseñas aparecerán en tu correo electrónico. No ignores estas advertencias ni las marques como spam, incluso (¡especialmente!) si recibes muchas.

Deepfakes y chantaje generados por IA

Quizás la forma más aterradora de estafa incipiente de IA es la posibilidad de chantaje utilizando imágenes falsas suyas o de un ser querido. ¡Puedes agradecer al vertiginoso mundo de los modelos de imagen abierta por esta perspectiva futurista y aterradora! Las personas interesadas en ciertos aspectos de la generación de imágenes de vanguardia han creado flujos de trabajo no sólo para representar cuerpos desnudos, sino también para adjuntarlos a cualquier rostro del que puedan obtener una imagen. No necesito dar más detalles sobre cómo se está utilizando ya.

Pero una consecuencia no deseada es una extensión de la estafa comúnmente llamada “porno de venganza”, pero que se describe con más precisión como distribución no consentida de imágenes íntimas (aunque, al igual que “deepfake”, puede ser difícil reemplazar el término original). Cuando las imágenes privadas de alguien se divulgan, ya sea a través de hackers o de un ex vengativo, pueden ser utilizadas como chantaje por un tercero que amenaza con publicarlas ampliamente a menos que se pague una suma.

La IA potencia esta estafa al hacer que no sea necesario que existan imágenes íntimas reales en primer lugar. Se puede agregar el rostro de cualquier persona a un cuerpo generado por IA y, si bien los resultados no siempre son convincentes, probablemente sea suficiente para engañarte a ti o a otras personas si está pixelado, tiene baja resolución o está parcialmente ofuscado. Y eso es todo lo que se necesita para asustar a alguien y hacer que pague para mantenerlos en secreto; aunque, como ocurre con la mayoría de las estafas de chantaje, es poco probable que el primer pago sea el último.

¿Cómo se puede luchar contra los deepfakes generados por IA?

Desafortunadamente, el mundo hacia el que nos dirigimos es uno donde las imágenes falsas de desnudos de casi cualquier persona estarán disponibles a pedido. Es aterrador, extraño y asqueroso, pero lamentablemente el gato está fuera de lugar aquí.

Nadie está contento con esta situación excepto los malos. Pero hay un par de cosas que nos convienen a todas las víctimas potenciales. Puede que no sea un consuelo, pero estas imágenes no son realmente tuyas, y no se necesitan fotografías reales de desnudos para demostrarlo. Estos modelos de imágenes pueden producir cuerpos realistas de alguna manera, pero al igual que otras IA generativas, solo saben en qué han sido entrenados. Por lo tanto, las imágenes falsas carecerán de marcas distintivas, por ejemplo, y es probable que sean obviamente erróneas en otros aspectos.

Y aunque es probable que la amenaza nunca disminuya por completo, cada vez hay más recursos a disposición de las víctimas, que pueden obligar legalmente a los proveedores de imágenes a que eliminen las fotos o prohibir a los estafadores acceder a los sitios donde las publican. A medida que el problema crezca, también lo harán los medios legales y privados para combatirlo.

¡TechCrunch no es un abogado! Pero si eres víctima de esto, díselo a la policía. No es sólo una estafa, sino acoso, y aunque no se puede esperar que los policías hagan el tipo de trabajo de detective en Internet necesario para localizar a alguien, estos casos a veces se resuelven, o los estafadores se asustan con las solicitudes enviadas a su ISP o anfitrión del foro.

Fuente