Reddit está tomando una posición contra las empresas de inteligencia artificial, o al menos les está pidiendo que paguen.
A principios de esta semana, Reddit anunció que cambiará su Protocolo de Exclusión de Robots, también conocido como archivo robots.txt. Esta edición, que suena un tanto árida, es parte de una negociación/batalla más amplia entre las empresas de IA que están ávidas de contenido que puedan usar para entrenar sus modelos de lenguaje y las empresas que realmente poseen el contenido.
“Robots.txt” es la forma en que los sitios web comunican a terceros cómo se puede rastrear un sitio web; el ejemplo clásico son los sitios web que permiten a Google rastrearlos para que puedan incluirse en los resultados de búsqueda.
En el caso de la IA, el intercambio de valor es mucho menos obvio. Cuando gestionas un sitio web cuyo modelo de negocio consiste en atraer clics y visitas, no resulta muy atractivo dejar que las empresas de IA absorban tu contenido y luego no te envíen tráfico y, en algunos casos, plagies directamente tu trabajo.
Entonces, al cambiar su archivo robots.txt y al continuar limitando y bloqueando bots y rastreadores desconocidos, Reddit parece estar trabajando para prevenir las prácticas que les gustan a las empresas. La perplejidad por la que la IA ha sido criticada.
¡Dale al play para obtener más información y luego cuéntanos lo que piensas en los comentarios!