Primero, un descargo de responsabilidad necesario: no use generadores de lenguaje de inteligencia artificial para resolver sus dilemas éticos. Segundo: definitivamente ve y cuéntale esos dilemas a esta simulación de Reddit impulsada por IA porque los resultados son fascinantes.
Are You The Asshole (AYTA) está, como su nombre indica, creado para imitar el foro de consejos de colaboración colectiva r/AmITheAsshole (AITA) de Reddit. Creado por los artistas de Internet Morris Kolman y Alex Petros con fondos de Digital Void, el sitio le permite ingresar a un escenario y pedir consejo al respecto, y luego genera una serie de publicaciones de comentarios que responden a su situación. La retroalimentación hace un trabajo notablemente bueno al capturar el estilo de las respuestas reales generadas por humanos, pero con el sesgo extraño y ligeramente extraño que producen muchos modelos de lenguaje de IA. Aquí están sus respuestas a la trama de la clásica novela de ciencia ficción. Picnic en la carretera:
Incluso dejando de lado la rareza de la premisa que ingresé, tienden a lugares comunes que no encajan totalmente con el mensaje, pero el estilo y el contenido de la escritura son bastante convincentes a simple vista.
También le pedí que resolviera el polémico debate “Bad Art Friend” del año pasado:
¡Los primeros dos bots estaban más confundidos por ese! Aunque, para ser justos, muchos humanos también lo estaban.
Puede encontrar algunos ejemplos más en un subreddit dedicado al sitio.
AYTA es en realidad el resultado de tres modelos de lenguaje diferentes, cada uno entrenado en un subconjunto de datos diferente. Como explica el sitio, los creadores capturaron alrededor de 100 000 publicaciones de AITA del año 2020, además de los comentarios asociados con ellas. Luego entrenaron un sistema de generación de texto personalizado en diferentes partes de los datos: un bot recibió una serie de comentarios que concluyeron que los carteles originales eran NTA (no el gilipollas), otro recibió publicaciones que determinaron lo contrario y otro obtuvo una combinación. de datos que incluían los dos conjuntos anteriores más comentarios que declaraban que nadie o todos los involucrados tenían la culpa. Curiosamente, alguien hizo una versión de Reddit solo para bots hace unos años que incluía publicaciones de consejos, aunque también generaba avisos con un efecto marcadamente más surrealista.
AYTA es similar a una herramienta anterior llamada Ask Delphi, que también utilizó una IA entrenada en publicaciones de AITA (pero combinada con respuestas de encuestados contratados, no de Redditors) para analizar la moralidad de las indicaciones de los usuarios. Sin embargo, el marco de los dos sistemas es bastante diferente.
Ask Delphi destacó implícitamente las muchas deficiencias del uso del análisis del lenguaje de IA para los juicios morales, en particular la frecuencia con la que responde al tono de una publicación en lugar de a su contenido. AYTA es más explícito sobre su absurdo. Por un lado, imita el estilo sarcástico de los comentaristas de Reddit en lugar de un árbitro desinteresado. Por otro lado, no emite un solo juicio, sino que le permite ver cómo la IA razona para llegar a conclusiones dispares.
“Este proyecto trata sobre el sesgo y el razonamiento motivado que los datos incorrectos le enseñan a una IA”. tuiteó Kolman en un hilo de anuncios. “La IA sesgada parece tres modelos que intentan analizar los matices éticos de una situación en la que a uno solo se le han mostrado comentarios de personas que se llaman gilipollas entre sí y a otro solo se le han visto comentarios de personas que dicen que tienen toda la razón”. Contra un reciente New York Times titular, los generadores de texto de IA no dominan precisamente el lenguaje; simplemente se están volviendo muy buenos imitando el estilo humano, aunque no a la perfección, que es donde entra la diversión. “Algunas de las respuestas más divertidas no son las que obviamente están equivocadas”. notas kolman. “Ellos son los que obviamente son inhumanos”.