Minuto de TechCrunch: Reddit se posiciona contra los rastreadores de IA

Reddit está adoptando una postura contra las empresas de inteligencia artificial, o al menos pidiéndoles que paguen.

A principios de esta semana, Reddit anunció que está cambiando su protocolo de exclusión de robots, también conocido como archivo robots.txt. Esta edición que suena seca es parte de una negociación/batalla más amplia entre las empresas de inteligencia artificial que están ávidas de contenido que puedan utilizar para entrenar sus modelos de lenguaje y las empresas que realmente poseen el contenido.

“Robots.txt” es la forma en que los sitios web comunican a terceros cómo se puede rastrear un sitio web; el ejemplo clásico son los sitios web que permiten a Google rastrearlos para que puedan incluirse en los resultados de búsqueda.

En el caso de la IA, el intercambio de valor es mucho menos obvio. Cuando ejecuta un sitio web cuyo modelo de negocio implica atraer clics y visitas, no tiene mucho atractivo dejar que las empresas de inteligencia artificial acaparen su contenido y luego no le envíen ningún tráfico y, en algunos casos, plagian abiertamente su trabajo.

Entonces, al cambiar su archivo robots.txt y también al continuar limitando la velocidad y bloqueando bots y rastreadores desconocidos, Reddit parece estar trabajando para prevenir las prácticas que a las empresas les gustan. La IA de Perplexity ha sido criticada por.

Pulsa reproducir para obtener más información y luego cuéntanos lo que piensas en los comentarios.

Fuente