La startup de IA Anthropic está cambiando sus políticas para permitir que los menores utilicen sus herramientas de IA generativa, al menos en determinadas circunstancias.
Anunciado en un correo En el blog oficial de la compañía el viernes, Anthropic comenzará a permitir que los adolescentes y preadolescentes usen aplicaciones de terceros (pero no necesariamente sus propias aplicaciones) impulsadas por sus modelos de inteligencia artificial, siempre que los desarrolladores de esas aplicaciones implementen características de seguridad específicas y revelen a los usuarios qué Tecnologías antrópicas que están empleando.
en un artículo de soporte, Anthropic enumera varias medidas de seguridad que los desarrolladores que crean aplicaciones basadas en IA para menores deben incluir, como sistemas de verificación de edad, moderación y filtrado de contenido y recursos educativos sobre el uso “seguro y responsable” de la IA para menores. La empresa también dice que puede poner a disposición “medidas técnicas” destinadas a adaptar las experiencias de productos de IA para menores, como un “mensaje de sistema de seguridad infantil” que los desarrolladores dirigidos a menores deberían implementar.
Los desarrolladores que utilicen los modelos de IA de Anthropic también tendrán que cumplir con las regulaciones “aplicables” de seguridad infantil y privacidad de datos, como la Ley de Protección de la Privacidad Infantil en Línea (COPPA), la ley federal de EE. UU. que protege la privacidad de los niños menores de 13 años, dice Anthropic. Anthropic planea auditar “periódicamente” el cumplimiento de las aplicaciones, suspendiendo o cancelando las cuentas de aquellos que violen repetidamente el requisito de cumplimiento, y exigir que los desarrolladores “indiquen claramente” en los sitios web o en la documentación pública que cumplen.
“Hay ciertos casos de uso en los que las herramientas de inteligencia artificial pueden ofrecer beneficios significativos a los usuarios más jóvenes, como la preparación de exámenes o el apoyo a tutorías”, escribe Anthropic en la publicación. “Teniendo esto en cuenta, nuestra política actualizada permite a las organizaciones incorporar nuestra API en sus productos para menores si aceptan implementar ciertas características de seguridad y revelar a sus usuarios que su producto aprovecha un sistema de inteligencia artificial”.
El cambio de política de Anthropic se produce cuando los niños y adolescentes recurren cada vez más a herramientas de inteligencia artificial generativa en busca de ayuda no solo con Trabajo escolar pero hay cuestiones personales y proveedores rivales de IA generativa (incluidos Google y OpenAI) están explorando casos de uso dirigidos a niños. Este año, OpenAI formó un nuevo equipo para estudiar la seguridad infantil y anunció una asociación con Common Sense Media para colaborar en pautas de IA adaptadas a los niños. Mientras tanto, Google puso su chatbot Bard (desde entonces rebautizado como Gemini) a disposición de los adolescentes en inglés en países seleccionados.
De acuerdo a un encuesta del Centro para la Democracia y la Tecnología, el 29% de los niños informan haber utilizado IA generativa como ChatGPT de OpenAI para lidiar con la ansiedad o problemas de salud mental, el 22% para problemas con amigos y el 16% para conflictos familiares.
El verano pasado, las escuelas y universidades se apresuraron a prohibir las aplicaciones de IA generativa, en particular ChatGPT, por temor a plagio y desinformación. Desde entonces, algunos han invertido sus prohibiciones. Pero no todos están convencidos del potencial positivo de la IA generativa, señalando encuestas como el Centro para una Internet más segura del Reino Unido, que encontró que más de la mitad de los niños (53%) informan haber visto a personas de su edad usar IA generativa de manera negativa, por ejemplo, creando información falsa creíble o imágenes utilizadas para molestar a alguien (incluidos los deepfakes pornográficos).
Están aumentando los pedidos de directrices sobre el uso de la IA generativa por parte de los niños.
La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) a finales del año pasado empujado que los gobiernos regulen el uso de la IA generativa en la educación, incluida la implementación de límites de edad para los usuarios y barreras de seguridad sobre la protección de datos y la privacidad de los usuarios. “La IA generativa puede ser una tremenda oportunidad para el desarrollo humano, pero también puede causar daños y prejuicios”, dijo Audrey Azoulay, directora general de la UNESCO, en un comunicado de prensa. “No se puede integrar en la educación sin la participación pública y las salvaguardias y regulaciones necesarias por parte de los gobiernos”.