Guillaume Chaslot

Entramos buscando respuestas acerca del cambio climático y acabamos en un vídeo de teorías terraplanistas. ¿En qué momento tomamos la decisión que nos llevó allí?

En realidad, en ninguno. YouTube prioriza los vídeos que generan más engagement con el objetivo de que los usuarios pasen más tiempo en su plataforma. Una dinámica que está teniendo consecuencias en la forma en que percibimos nuestro entorno. Al menos, así lo entiende Guillaume Chaslot, exingeniero de Google y fundador de Algotransparency.org, una plataforma que busca sacar a la luz las consecuencias de determinadas decisiones algorítmicas en nuestra sociedad.

Chaslot, programador y doctor por la Universidad de Maastricht, en los Países Bajos, es también asesor del Center for Humane Technology. En los últimos años, ha dedicado gran parte de su trabajo a estudiar cómo las redes neuronales, el tipo de inteligencia artificial en que se basa el sistema de recomendación de YouTube, amplifican los discursos extremos por encima de cualquier otro contenido.

– Trabajas en YouTube hasta 2011, ¿por qué dejas la compañía?

Quería trabajar y profundizar más en el tema de los filtros burbuja, por qué las redes sociales crean burbujas de opinión que solo refuerzan los puntos de vista del usuario. Pero Google no estaba interesado en gastar demasiado tiempo en estos temas. No podíamos dedicarle más del 20% del tiempo del proyecto, pero yo sentía que no era suficiente.

Un día, mi mánager me dijo que dejase de trabajar en ese tema, que no le dedicase más recursos. No lo hice y me despidieron.

«Cuando trabajaba en YouTube, ni siquiera conocíamos en detalle qué estábamos haciendo. No analizábamos nunca las consecuencias de lo hacíamos».

– Tras YouTube, probaste con otros proyectos. Por ejemplo, Bayes Impact, fundado por Paul Duan, otro exingeniero de Silicon Valley. ¿Por qué crees que hay tantos ingenieros de las grandes tecnológicas que abandonan el barco y se dedican a trabajar para visibilizar la cara B de estas compañías?

Bueno… Es que existen una serie de malas prácticas que se mantienen en aras de generar beneficios. Y existen ciertos tipos de personas que quieren que se hable de ellas, que la sociedad las conozca.

– Más tarde, en 2017, decides fundar Algotransparency.org. El objetivo de esta web es analizar el impacto de los algoritmos de recomendación de YouTube. ¿No se supone que, como ingeniero que trabajó en esos algoritmos, deberías conocer ya dicho impacto?

Como ingeniero, sabes cómo funciona, cómo está programado. Pero desconoces cuál es su impacto real, qué es lo que consigue. Cuando lo estaba programando en 2010, no tenía forma de saber qué efectos iba a tener en 2019. Por eso cree AlgoTransparency, para entender realmente cuáles eran los efectos del algoritmo de recomendación de YouTube.

En 2010 y 2011, cuando trabajaba en YouTube, ni siquiera conocíamos en detalle qué estábamos haciendo. Nos guiábamos por las métricas. No analizábamos nunca las consecuencias de lo que estábamos haciendo.

Seguir leyendo en Nobbot.