Hoy YouTube Anunciado una forma para que los creadores se autoetiquetan cuando sus videos contienen material sintético o generado por IA.
La casilla de verificación aparece en el proceso de carga y publicación, y Se requieren creadores revelar contenido “alterado o sintético” que parezca realista. Eso incluye cosas como hacer que una persona real diga o haga algo que no hizo; alterar imágenes de eventos y lugares reales; o mostrar una “escena de apariencia realista” que en realidad no sucedió. Algunos ejemplos que ofrece YouTube son mostrar un tornado falso moviéndose hacia una ciudad real o usar voces falsas para que una persona real narre un video.
Por otro lado, no se requerirán divulgaciones para cosas como filtros de belleza, efectos especiales como el desenfoque del fondo y “contenido claramente poco realista” como la animación.
En noviembre, YouTube detalló su política de contenido generado por IA, creando esencialmente dos niveles de reglas: reglas estrictas que protegen a los sellos discográficos y a los artistas y pautas más flexibles para todos los demás. La música deepfake, como Drake cantando Ice Spice o rapeando una canción escrita por otra persona, puede ser eliminada por el sello de un artista si no le gusta. Como parte de estas reglas, YouTube dijo que los creadores estarían obligados a revelar material generado por IA, pero hasta ahora no había explicado cómo lo harían exactamente. Y si eres una persona promedio que sufre un deepfake en YouTube, podría ser mucho más difícil lograrlo: tendrías que completar un formulario de solicitud de privacidad que la compañía revisaría. YouTube no ofreció mucho sobre este proceso en la actualización de hoy y dijo que “continúa trabajando para lograr un proceso de privacidad actualizado”.
Al igual que otras plataformas que han introducido etiquetas de contenido de IA, la función de YouTube se basa en el sistema de honor: los creadores deben ser honestos acerca de lo que aparece en sus videos. El portavoz de YouTube, Jack Malon, dijo anteriormente El borde que la empresa era “invertir en herramientas” para detectar contenido generado por IA, aunque el software de detección de IA es históricamente muy inexacto.
En su publicación de blog de hoy, YouTube dice que puede agregar una divulgación de IA a los videos incluso si quien los subió no lo ha hecho él mismo, “especialmente si el contenido alterado o sintético tiene el potencial de confundir o engañar a las personas”. También aparecerán etiquetas más destacadas en el propio vídeo para temas delicados como salud, elecciones y finanzas.