La IA está aquí para ayudarte, ya sea que estés redactando un correo electrónico, creando un arte conceptual o estafando a personas vulnerables haciéndoles creer que eres un amigo o un familiar en apuros. ¡La IA es muy versátil! Pero como algunas personas prefieren no ser estafadas, hablemos un poco sobre qué hay que tener en cuenta.
En los últimos años se ha visto un gran aumento no sólo en la calidad de los medios generados, desde texto hasta audio, imágenes y video, sino también en la forma económica y sencilla de crear esos medios. El mismo tipo de herramienta que ayuda a un artista conceptual a crear algunos monstruos o naves espaciales de fantasía, o que permite a un hablante no nativo mejorar su inglés comercial, también puede utilizarse con fines maliciosos.
No esperes que Terminator llame a tu puerta y te venda un esquema Ponzi: son las mismas viejas estafas que hemos enfrentado durante años, pero con un giro de inteligencia artificial generativa que las hace más fáciles, más baratas o más convincentes.
Esta no es una lista completa, solo algunos de los trucos más obvios que la IA puede potenciar. Nos aseguraremos de agregar los nuevos trucos a medida que aparezcan o cualquier medida adicional que pueda tomar para protegerse.
Clonación de voz de familiares y amigos
Las voces sintéticas existen desde hace décadas, pero sólo en los últimos dos años los avances en la tecnología han permitido generar una nueva voz a partir de tan solo unos pocos segundos de audio. Eso significa que cualquier persona cuya voz alguna vez haya sido transmitida públicamente (por ejemplo, en un informe de noticias, un video de YouTube o en las redes sociales) es vulnerable a que su voz sea clonada.
Los estafadores pueden y han utilizado esta tecnología para producir versiones falsas convincentes de sus seres queridos o amigos. Se les puede hacer decir cualquier cosa, por supuesto, pero al servicio de una estafa, lo más probable es que hagan un clip de voz pidiendo ayuda.
Por ejemplo, un padre puede recibir un mensaje de voz de un número desconocido que suena como el de su hijo, diciendo que le robaron sus cosas mientras viajaba, que una persona le permitió usar su teléfono y que mamá o papá podrían enviar algo de dinero a esta dirección, destinatario de Venmo, empresa, etc. Uno puede imaginar fácilmente variantes con problemas con el auto (“no me entregarán el auto hasta que alguien les pague”), problemas médicos (“este tratamiento no está cubierto por el seguro”), etc.
¡Este tipo de estafa ya se ha realizado utilizando la voz del presidente Biden! Atraparon a los que estaban detrás de eso, pero los futuros estafadores tendrán más cuidado.
¿Cómo podemos luchar contra la clonación de voz?
Primero, no te molestes en intentar detectar una voz falsa. Mejoran cada día y hay muchas formas de disimular cualquier problema de calidad. ¡Incluso los expertos se dejan engañar!
Cualquier cosa que provenga de un número, dirección de correo electrónico o cuenta desconocida debe considerarse automáticamente sospechosa. Si alguien dice que es su amigo o ser querido, continúe y comuníquese con la persona como lo haría normalmente. Probablemente te dirán que están bien y que es (como habrás adivinado) una estafa.
Los estafadores tienden a no hacer seguimiento si son ignorados, mientras que un miembro de la familia probablemente lo hará. Está bien dejar un mensaje sospechoso en lectura mientras lo consideras.
Phishing y spam personalizados vía correo electrónico y mensajería
Todos recibimos spam de vez en cuando, pero la IA generadora de texto hace posible enviar correos electrónicos masivos personalizados para cada individuo. Dado que las filtraciones de datos ocurren con regularidad, muchos de sus datos personales están disponibles.
Una cosa es conseguir uno de esos “¡Haz clic aquí para ver tu factura!” correos electrónicos fraudulentos con archivos adjuntos obviamente aterradores que parecen requerir muy poco esfuerzo. Pero incluso con un poco de contexto, de repente se vuelven bastante creíbles y utilizan ubicaciones, compras y hábitos recientes para que parezca una persona real o un problema real. Armado con algunos datos personales, un modelo de lenguaje puede personalizar un genérico de estos correos electrónicos para miles de destinatarios en cuestión de segundos.
Entonces, lo que antes era “Estimado cliente, encuentre su factura adjunta” se convierte en algo como “¡Hola Doris! Estoy con el equipo de promociones de Etsy. ¡Un artículo que estabas mirando recientemente ahora tiene un 50 % de descuento! Y el envío a su dirección en Bellingham es gratuito si utiliza este enlace para reclamar el descuento”. Un ejemplo simple, pero aún así. Con un nombre real, hábito de compra (fácil de descubrir), ubicación general (ídem), etc., de repente el mensaje es mucho menos obvio.
Al final, todo esto sigue siendo spam, pero antes este tipo de spam personalizado lo tenían que hacer personas mal pagadas en granjas de contenido en países extranjeros. ¡Ahora lo puede hacer a gran escala un LLM con mejores habilidades de prosa que muchos escritores profesionales!
¿Cómo puedes luchar contra el spam de correo electrónico?
Al igual que con el spam tradicional, la vigilancia es su mejor arma. Pero no espere poder distinguir el texto generado del texto escrito por humanos en la vida real. Hay pocos que puedan hacerlo, y ciertamente no otro modelo de IA (a pesar de las afirmaciones de algunas empresas y servicios).
Por muy mejorado que esté el texto, este tipo de estafa todavía tiene el desafío fundamental de lograr que usted abra archivos adjuntos o enlaces incompletos. Como siempre, a menos que esté 100% seguro de la autenticidad y la identidad del remitente, no haga clic ni abra nada. Si no estás seguro, aunque sea un poco, y es una buena idea cultivarlo, no hagas clic, y si tienes a alguien con conocimientos a quien reenviarlo para que lo revise un segundo par de ojos, hazlo.
Fraude de identificación y verificación ‘falso’
Debido a la cantidad de filtraciones de datos en los últimos años (¡gracias, Equifax!), es seguro decir que casi todos tenemos una buena cantidad de datos personales flotando en la web oscura. Si sigues buenas prácticas de seguridad en línea, gran parte del peligro se mitiga porque cambiaste tus contraseñas, habilitaste la autenticación multifactor, etc. Pero la IA generativa podría presentar una nueva y grave amenaza en este ámbito.
Con tanta información sobre alguien disponible en línea y, para muchos, incluso un fragmento o dos de su voz, es cada vez más fácil crear un personaje de IA que suene como una persona objetivo y tenga acceso a gran parte de los datos utilizados para verificar la identidad.
Piénselo así. Si tuviera problemas para iniciar sesión, no pudiera configurar correctamente su aplicación de autenticación o perdiera su teléfono, ¿qué haría? Probablemente llame al servicio de atención al cliente y ellos “verificarán” su identidad utilizando algunos datos triviales como su fecha de nacimiento, número de teléfono o número de Seguro Social. Incluso métodos más avanzados como “tomar una selfie” son cada vez más fáciles de utilizar.
El agente de servicio al cliente: por lo que sabemos, ¡también una IA! – Es muy posible que obligue a este falso usted y le otorgue todos los privilegios que tendría si realmente llamara. Lo que pueden hacer desde esa posición varía ampliamente, ¡pero nada de eso es bueno!
Al igual que con los demás en esta lista, el peligro no es tanto cuán realista sería esta falsificación, sino que es fácil para los estafadores realizar este tipo de ataque de manera amplia y repetida. No hace mucho, este tipo de ataque de suplantación de identidad era costoso y requería mucho tiempo y, como consecuencia, se limitaría a objetivos de alto valor, como personas ricas y directores ejecutivos. Hoy en día, se podría crear un flujo de trabajo que creara miles de agentes de suplantación de identidad con una supervisión mínima, y estos agentes podrían llamar de forma autónoma a los números de servicio al cliente en todas las cuentas conocidas de una persona, ¡o incluso crear otras nuevas! Sólo unos pocos necesitan tener éxito para justificar el coste del ataque.
¿Cómo se puede luchar contra el fraude de identidad?
Tal como era antes de que las IA llegaran para reforzar los esfuerzos de los estafadores, “Ciberseguridad 101” es su mejor opción. Sus datos ya están ahí; no puede volver a poner la pasta de dientes en el tubo. poder Asegúrese de que sus cuentas estén adecuadamente protegidas contra los ataques más obvios.
La autenticación multifactor es fácilmente el paso más importante que cualquiera puede dar aquí. Cualquier tipo de actividad grave en la cuenta va directamente a su teléfono y los inicios de sesión sospechosos o los intentos de cambiar contraseñas aparecerán en el correo electrónico. No descuides estas advertencias ni las marques como spam, incluso (¡especialmente!) si recibes muchas.
Deepfakes generados por IA y chantaje
Tal vez la forma más aterradora de estafa de inteligencia artificial naciente sea la posibilidad de chantaje mediante imágenes falsas de usted o de un ser querido. ¡Puede agradecer al mundo de rápido movimiento de los modelos de imágenes abiertas por esta perspectiva futurista y aterradora! Las personas interesadas en ciertos aspectos de la generación de imágenes de vanguardia han creado flujos de trabajo no solo para renderizar cuerpos desnudos, sino para adjuntarlos a cualquier rostro del que puedan obtener una fotografía. No necesito explicar en detalle cómo ya se está utilizando.
Pero una consecuencia no deseada es una extensión de la estafa comúnmente llamada “porno de venganza”, pero que se describe con más precisión como distribución no consentida de imágenes íntimas (aunque, al igual que “deepfake”, puede ser difícil reemplazar el término original). Cuando las imágenes privadas de alguien se divulgan, ya sea mediante piratería informática o por un ex vengativo, pueden ser utilizadas como chantaje por un tercero que amenaza con publicarlas ampliamente a menos que se pague una suma.
¡La IA mejora esta estafa al hacer que, en primer lugar, no sea necesario que existan imágenes íntimas reales! Se puede agregar la cara de cualquier persona a un cuerpo generado por IA, y aunque los resultados no siempre son convincentes, probablemente sea suficiente para engañarte a ti o a otros si está pixelado, tiene baja resolución o está parcialmente ofuscado. Y eso es todo lo que se necesita para asustar a alguien y obligarlo a pagar para mantenerlo en secreto; aunque, como en la mayoría de las estafas de chantaje, es poco probable que el primer pago sea el último.
¿Cómo puedes luchar contra los deepfakes generados por IA?
Desafortunadamente, el mundo hacia el que nos dirigimos es uno donde las imágenes falsas de desnudos de casi cualquier persona estarán disponibles a pedido. Es aterrador, extraño y asqueroso, pero lamentablemente el gato está fuera de lugar aquí.
Nadie está contento con esta situación, excepto los malos. Pero hay un par de cosas que favorecen a todas las víctimas potenciales. Puede que no sea un gran consuelo, pero estas imágenes no son realmente tuyas, y no hacen falta fotos reales de desnudos para demostrarlo. Estos modelos de imágenes pueden producir cuerpos realistas en algunos aspectos, pero, como otras IA generativas, solo saben lo que han aprendido. Por lo tanto, las imágenes falsas carecerán de marcas distintivas, por ejemplo, y es probable que sean obviamente erróneas en otros aspectos.
Y aunque es probable que la amenaza nunca disminuya por completo, cada vez hay más recursos para las víctimas, que pueden obligar legalmente a los servidores de imágenes a eliminarlas o prohibir a los estafadores la entrada a los sitios donde publican. A medida que el problema crece, también lo harán los medios legales y privados para combatirlo.
¡TechCrunch no es un abogado! Pero si eres víctima de esto, díselo a la policía. No es sólo una estafa, sino acoso, y aunque no se puede esperar que los policías hagan el tipo de trabajo de detective en Internet necesario para localizar a alguien, estos casos a veces se resuelven, o los estafadores se asustan con las solicitudes enviadas a su ISP o anfitrión del foro.