Antes de las elecciones presidenciales de EE. UU. de 2024, Anthropic, la startup de inteligencia artificial bien financiada, está probando una tecnología para detectar cuándo los usuarios de su chatbot GenAI preguntan sobre temas políticos y redirigir a esos usuarios a fuentes “autorizadas” de información electoral.
Llamada Prompt Shield, la tecnología, que se basa en una combinación de reglas y modelos de detección de IA, muestra una ventana emergente si un usuario de Claude, el chatbot de Anthropic, con sede en EE. UU., solicita información para votar. La ventana emergente ofrece redirigir al usuario a TurboVote, un recurso de la organización no partidista Democracy Works, donde puede encontrar información electoral actualizada y precisa.
Anthropic dice que Prompt Shield fue necesario debido a las deficiencias de Claude en el área de información política y electoral. Claude no está capacitado con suficiente frecuencia para proporcionar información en tiempo real sobre elecciones específicas, reconoce Anthropic, y por eso es propenso a alucinar (es decir, inventar hechos) sobre esas elecciones.
“Hemos implementado un ‘escudo rápido’ desde que lanzamos Claude: señala varios tipos diferentes de daños, según nuestra política de usuario aceptable”, dijo un portavoz a TechCrunch por correo electrónico. “Lanzaremos nuestra rápida intervención de escudo específica para las elecciones en las próximas semanas y tenemos la intención de monitorear el uso y las limitaciones… Hemos hablado con una variedad de partes interesadas, incluidos los formuladores de políticas, otras empresas, la sociedad civil y agencias no gubernamentales y organizaciones específicas para las elecciones. consultores [in developing this].”
Aparentemente es una prueba limitada en este momento. Claude no presentó la ventana emergente cuando le pregunté cómo votar en las próximas elecciones, sino que escupió una guía de votación genérica. Anthropic afirma que está perfeccionando Prompt Shield mientras se prepara para expandirlo a más usuarios.
Anthropic, que prohíbe el uso de sus herramientas en campañas políticas y lobby, es el último proveedor de GenAI en implementar políticas y tecnologías para intentar prevenir la interferencia electoral.
El momento no es una coincidencia. Este año, a nivel mundial, más votantes que nunca en la historia acudirán a las urnas, ya que al menos 64 países que representan una población combinada de alrededor del 49% de la población del mundo deben celebrar elecciones nacionales.
En enero, OpenAI dijo que prohibiría a las personas usar ChatGPT, su chatbot viral impulsado por IA, para crear bots que se hagan pasar por candidatos o gobiernos reales, tergiversen cómo funciona la votación o disuadan a las personas de votar. Al igual que Anthropic, OpenAI actualmente no permite a los usuarios crear aplicaciones utilizando sus herramientas con fines de campaña política o cabildeo, una política que la compañía reiteró el mes pasado.
En un enfoque técnico similar a Prompt Shield, OpenAI también está empleando sistemas de detección para dirigir a los usuarios de ChatGPT que hacen preguntas logísticas sobre la votación a un sitio web no partidista, CanIVote.org, mantenido por la Asociación Nacional de Secretarios de Estado.
En Estados Unidos, el Congreso aún tiene que aprobar una legislación que busque regular el papel de la industria de la IA en la política, a pesar de cierto apoyo bipartidista. Mientras tanto, más de un tercio de los estados de EE. UU. han aprobado o presentado proyectos de ley para abordar los deepfakes en campañas políticas a medida que la legislación federal se estanca.
En lugar de legislación, algunas plataformas, bajo presión de organismos de control y reguladores, están tomando medidas para evitar que se abuse de la GenAI para engañar o manipular a los votantes.
Google dijo en septiembre pasado que exigiría que los anuncios políticos que utilicen GenAI en YouTube y sus otras plataformas, como la Búsqueda de Google, estuvieran acompañados de una divulgación destacada si las imágenes o los sonidos fueran alterados sintéticamente. Meta también ha prohibido que las campañas políticas utilicen herramientas GenAI, incluida la suya propia, en la publicidad de sus propiedades.