Google emitirá el jueves una nueva guía para los desarrolladores que crean aplicaciones de inteligencia artificial distribuidas a través de Google Play, con la esperanza de reducir el contenido inapropiado o prohibido. La compañía dice que las aplicaciones que ofrecen funciones de inteligencia artificial deberán evitar la generación de contenido restringido, que incluye contenido sexual, violencia y más, y deberán ofrecer una forma para que los usuarios marquen el contenido ofensivo que encuentren. Además, Google dice que los desarrolladores deben “probar rigurosamente” sus herramientas y modelos de inteligencia artificial para garantizar que respeten la seguridad y privacidad del usuario.
También está tomando medidas enérgicas contra las aplicaciones cuyos materiales de marketing promueven casos de uso inapropiados, como aplicaciones que desnudan a las personas o crean imágenes de desnudos no consensuales. Si el texto del anuncio dice que la aplicación es capaz de hacer este tipo de cosas, es posible que se prohíba en Google Play, independientemente de si la aplicación es realmente capaz de hacerlo o no.
Las pautas siguen un creciente flagelo de aplicaciones de inteligencia artificial para desnudarse que se han estado promocionando en las redes sociales en los últimos meses. Un informe de abril de 404 Media, por ejemplo, encontró que Instagram alojaba anuncios para aplicaciones que afirmaban utilizar IA para generar desnudos deepfake. Una aplicación se promocionaba utilizando una foto de Kim Kardashian y el lema “Desnuda a cualquier chica gratis”. Apple y Google retiraron las aplicaciones de sus respectivas tiendas de aplicaciones, pero el problema sigue siendo generalizado.
Las escuelas de EE. UU. informan problemas con estudiantes paso alrededor Desnudos falsificados por IA de otros estudiantes (y a veces profesores) por intimidación y acoso, junto con otros tipos de inadecuado Contenido de IA. El mes pasado, un deepfake racista de IA de un director de escuela condujo a un arresto en Baltimore. Peor aún, el problema es incluso que afecta a los estudiantes de las escuelas intermediasen algunos casos.
Google dice que sus políticas ayudarán a mantener alejadas de Google Play las aplicaciones que presentan contenido generado por IA que puede ser inapropiado o dañino para los usuarios. Señala su Política de contenido generado por IA existente como un lugar para verificar sus requisitos para la aprobación de aplicaciones en Google Play. La compañía dice que las aplicaciones de inteligencia artificial no pueden permitir la generación de contenido restringido y también deben brindar a los usuarios una forma de marcar contenido ofensivo e inapropiado, así como monitorear y priorizar esa retroalimentación. Esto último es particularmente importante en aplicaciones donde las interacciones de los usuarios “dan forma al contenido y la experiencia”, dice Google, como aplicaciones donde los modelos populares obtienen una clasificación más alta o más prominente, tal vez.
Los desarrolladores tampoco pueden anunciar que su aplicación infringe alguna de las reglas de Google Play, según Google. Requisitos de promoción de aplicaciones. Si anuncia un caso de uso inapropiado, la aplicación podría iniciarse desde la tienda de aplicaciones.
Además, los desarrolladores son responsables de proteger sus aplicaciones contra indicaciones que podrían manipular sus funciones de IA para crear contenido dañino y ofensivo. Google dice que los desarrolladores pueden usar su prueba cerrada función para compartir versiones anteriores de sus aplicaciones con los usuarios para obtener comentarios. La compañía sugiere encarecidamente que los desarrolladores no sólo prueben antes del lanzamiento, sino que también documenten esas pruebas, ya que Google podría solicitar una revisión en el futuro.
La empresa también está publicando otros recursos y mejores prácticas, como su Guía de personas + IAcuyo objetivo es ayudar a los desarrolladores a crear aplicaciones de IA.