El costo invisible del nuevo internet
El costo invisible del nuevo internet
La Wikimedia Foundation advierte sobre los riesgos de la inteligencia artificial generativa, que consume recursos de Wikipedia y proyectos hermanos para alimentar modelos lingüísticos, amenazando la sostenibilidad de una de las mayores bibliotecas de conocimiento libre.
A medida que los sistemas de inteligencia artificial (IA) se integran en nuestras vidas, un costoso secreto se revela tras el telón: para funcionar, estos modelos masivos dependen de la extracción continua de información de la web, incluyendo recursos imprescindibles como los de Wikimedia Commons. Esta sustanciosa advertencia proviene de la Wikimedia Foundation, la organización tras Wikipedia, que ha señalado el creciente uso de crawlers —programas informáticos utilizados para indexar contenido— que, lejos de representar el tráfico humano, están incrementando su carga sobre los servidores de la fundación. En solo unos meses, el tráfico de descargas de estos robots ha crecido un sorprendente 50% desde enero de 2023, un avance vertiginoso que primero sorprende y luego alarma.
La situación se complica a medida que la comunidad de Wikimedia, que depende esencialmente del trabajo voluntario y de contenidos libres, se enfrenta a una creciente serie de solicitudes automatizadas. A pesar de que solo el 35% de las páginas vistas en la plataforma son generadas por bots, estos producen un 65% del tráfico más costoso. Tal carga ralentiza el acceso a la información durante los picos de tráfico, como en eventos noticiosos, y también plantea un dilema fundamental: ¿qué pasa con el acceso a la información de los usuarios humanos? La desigualdad en la demanda de contenidos podría poner en riesgo la misión de Wikimedia como baluarte del conocimiento accesible y gratuito.
El equilibrio en el uso de recursos: un llamado a la responsabilidad de las grandes empresas
La problemática no radica solamente en el consumo de recursos, sino también en el valor de los datos. Las grandes empresas tecnológicas vienen utilizando las contribuciones creativas de la comunidad de Wikipedia para entrenar sus modelos generativos. Estos modelos, que deben basarse en datos verificados humanos para evitar lo que se llama “alucinaciones” —resultados erróneos generados por la IA—, están tomando recursos vitales de una plataforma que promueve precisamente el conocimiento libre. Tal vez, la esencia de la conversión de este contenido en un activo comercial pone de relieve una injusticia: aquellas corporaciones que se benefician de la inteligencia artificial no están retribuyendo a quienes producen el material de calidad que alimenta esos sistemas.
La Directora de Producto de Wikimedia, Birgit Mueller, dejó claro que el propósito de la IA debería ser “ser útil a la gente”. Sin embargo, su creciente dependencia de los recursos de Wikimedia muestra una relación desequilibrada. Las empresas deben encontrar formas de consumir contenido que no ahogue los recursos de la comunidad. La realidad es que cuando los usuarios realicen consultas, si la respuesta ya está disponible en un chatbot, los usuarios podrían no sentirse motivados a visitar la fuente original, la intacta Wikipedia. Este círculo vicioso pone en riesgo la existencia de una comunidad activa que, durante años, ha trabajado incansablemente para brindar información veraz y accesible.
La actual interdependencia entre los datos de Wikimedia y el crecimiento de la IA nos lleva a reflexionar sobre un futuro donde los bots son cada vez más dominantes, desplazando a los usuarios humanos. ¿Estamos descarrilando la misión de una Internet gratuita a favor de una era dominada por la inteligencia artificial, donde los accesos a la información se ven mediadas por máquinas en lugar de seres humanos? Reflexionar sobre estos aspectos es vital; el futuro digital se construye hoy, y los pasos que tomemos determinarán la sostenibilidad de recursos fundamentales en el vasto universo del conocimiento libre.