Para brindarles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch está lanzando una serie de entrevistas centradas en mujeres destacadas que han contribuido a la revolución de la IA. Publicaremos varios artículos a lo largo del año a medida que continúe el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.
Sarah Kreps es politóloga, veterana de la Fuerza Aérea de EE. UU. y analista especializada en la política exterior y de defensa de EE. UU. Es profesora de gobierno en la Universidad de Cornell, profesora adjunta de derecho en la Facultad de Derecho de Cornell y académica adjunta en el Modern War Institute de West Point.
La investigación reciente de Kreps explora tanto el potencial como los riesgos de la tecnología de inteligencia artificial como GPT-4 de OpenAI, específicamente en la esfera política. en una opinion columna Para The Guardian el año pasado, escribió que, a medida que se invierta más dinero en la IA, la carrera armamentista de la IA no sólo entre las empresas sino también entre los países se intensificará, mientras que el desafío político de la IA se volverá más difícil.
Preguntas y respuestas
Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?
Comencé en el área de tecnologías emergentes con implicaciones para la seguridad nacional. Yo era oficial de la Fuerza Aérea en el momento en que se desplegó el dron Predator y había estado involucrado en sistemas avanzados de radar y satélite. Había pasado cuatro años trabajando en este espacio, por lo que era natural que, como doctor, estuviera interesado en estudiar las implicaciones de las tecnologías emergentes para la seguridad nacional. Primero escribí sobre drones, y el debate sobre los drones avanzaba hacia cuestiones de autonomía, lo que por supuesto implica inteligencia artificial.
En 2018, estuve en un taller de inteligencia artificial en un grupo de expertos de DC y OpenAI hizo una presentación sobre esta nueva capacidad GPT-2 que habían desarrollado. Acabábamos de pasar por las elecciones de 2016 y la interferencia electoral extranjera, que había sido relativamente fácil de detectar debido a pequeños detalles como errores gramaticales de hablantes no nativos de inglés, el tipo de errores que no eran sorprendentes dado que la interferencia había venido del Agencia de Investigación de Internet respaldada por Rusia. Cuando OpenAI hizo esta presentación, inmediatamente me preocupé por la posibilidad de generar desinformación creíble a escala y luego, mediante microtargeting, manipular la psicología de los votantes estadounidenses de maneras mucho más efectivas de lo que había sido posible cuando estas personas intentaban escribir contenido a mano. , donde la escala siempre iba a ser un problema.
Me acerqué a OpenAI y me convertí en uno de los primeros colaboradores académicos en su estrategia de lanzamiento por etapas. Mi investigación particular tuvo como objetivo investigar el posible caso de uso indebido: si GPT-2 y posteriormente GPT-3 eran creíbles como generadores de contenido político. En una serie de experimentos, evalué si el público vería este contenido como creíble, pero luego también realicé un gran experimento de campo en el que generé “cartas de distrito electoral” que aleatoricé con cartas de distrito electoral reales para ver si los legisladores responderían al mismo ritmo a saber si podrían ser engañados, si actores malintencionados podrían dar forma a la agenda legislativa con una campaña de envío de cartas a gran escala.
Estas preguntas tocaron el corazón de lo que significa ser una democracia soberana y concluí inequívocamente que estas nuevas tecnologías representaban nuevas amenazas a nuestra democracia.
¿De qué trabajo estás más orgulloso (en el campo de la IA)?
Estoy muy orgulloso del experimento de campo que realicé. Nadie había hecho nada remotamente similar y fuimos los primeros en mostrar el potencial disruptivo en el contexto de una agenda legislativa.
Pero también estoy orgulloso de las herramientas que lamentablemente nunca saqué al mercado. Trabajé con varios estudiantes de informática en Cornell para desarrollar una aplicación que procesara los correos electrónicos entrantes legislativos y los ayudara a responder a los electores de manera significativa. Estábamos trabajando en esto antes de ChatGPT y usábamos IA para digerir el gran volumen de correos electrónicos y brindar asistencia de IA para el personal con poco tiempo que se comunica con personas en su distrito o estado. Pensé que estas herramientas eran importantes debido al descontento de los electores con la política, pero también a las crecientes demandas de tiempo de los legisladores. Desarrollar la IA en estas formas de interés público parecía una contribución valiosa y un trabajo interdisciplinario interesante para los politólogos e informáticos. Llevamos a cabo una serie de experimentos para evaluar las preguntas de comportamiento sobre cómo se sentirían las personas si una IA les respondiera y concluimos que tal vez la sociedad no estaba preparada para algo como esto. Pero unos meses después de que lo desconectáramos, ChatGPT entró en escena y la IA es tan omnipresente que casi me pregunto cómo es que alguna vez nos preocupamos si esto era éticamente dudoso o legítimo. Pero todavía siento que es correcto que hiciéramos preguntas éticas difíciles sobre el caso de uso legítimo.
¿Cómo afrontar los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la inteligencia artificial dominada por los hombres?
Como investigador, no he sentido esos desafíos de manera tan aguda. Estaba en el Área de la Bahía y todos los tipos literalmente daban sus discursos en el ascensor del hotel, un cliché que pude considerar intimidante. Recomendaría que encuentren mentores (hombres y mujeres), desarrollen habilidades y dejen que esas habilidades hablen por sí mismas, asuman desafíos y se mantengan resilientes.
¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?
Creo que hay muchas oportunidades para las mujeres: necesitan desarrollar habilidades y tener confianza para prosperar.
¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?
Me preocupa que la comunidad de IA haya desarrollado tantas iniciativas de investigación que se centran en cosas como la “superalineación” que oscurecen las preguntas más profundas (o en realidad, las correctas) sobre los valores de quién o con qué valores estamos tratando de alinear la IA. El problemático lanzamiento de Google Gemini mostró la caricatura que puede surgir al alinearse con un conjunto limitado de valores de los desarrolladores de maneras que en realidad condujeron a imprecisiones históricas (casi) ridículas en sus resultados. Creo que los valores de esos desarrolladores eran de buena fe, pero revelaron el hecho de que estos grandes modelos de lenguaje están siendo programados con un conjunto particular de valores que moldearán la forma en que la gente piensa sobre la política, las relaciones sociales y una variedad de temas delicados. Esas cuestiones no son del tipo de riesgo existencial, pero crean el tejido de la sociedad y confieren un poder considerable a las grandes empresas (por ejemplo, OpenAI, Google, Meta, etc.) que son responsables de esos modelos.
¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?
A medida que la IA se vuelve omnipresente, creo que hemos entrado en un mundo en el que “confiar pero verificar”. Es nihilista no creer en nada, pero hay una gran cantidad de contenido generado por IA y los usuarios realmente deben ser prudentes en términos de aquello en lo que confían instintivamente. Es bueno buscar fuentes alternativas para verificar la autenticidad antes de asumir que todo es exacto. Pero creo que eso ya lo aprendimos con las redes sociales y la desinformación.
¿Cuál es la mejor manera de construir IA de manera responsable?
Hace poco escribí un pedazo para el Boletín de Científicos Atómicos, que comenzó cubriendo armas nucleares pero se ha adaptado para abordar tecnologías disruptivas como la IA. Había estado pensando en cómo los científicos podrían ser mejores administradores públicos y quería conectar algunos de los casos históricos que había estado analizando para un proyecto de libro. No solo describo una serie de pasos que respaldaría para el desarrollo responsable, sino que también explico por qué algunas de las preguntas que hacen los desarrolladores de IA son incorrectas, incompletas o equivocadas.