Según una reciente investigación del Wall Street Journal sobre Facebook -que está provocando bastante revuelo en algunos ambientes-, cada vez queda más claro que los usuarios de redes sociales priman los contenidos polémicos, controvertidos, que provocan reacciones inmediatas y aumentan el uso y el flujo en las redes… Y que los dueños de la plataforma, según demuestra la investigación, hacen poco o nada para paliar los efectos perniciosos de todo esto.
A ese método: publicar comentarios cortos y agresivos, insultar, denigrar y burlarse de temas y personas respetables, etc.; se apuntan todo tipo de activistas. De modo que la desinformación (como el bulo de que con la vacuna del covid te inoculan un chip…) lo agresivo (empezando por el puro y duro insulto), y en algunos casos lo obsceno, siguen siendo contenidos habituales en las redes.
Además del WSJ, también la Mozilla Foundation ha publicado las conclusiones de un estudio realizado con más de treinta mil usuarios de Youtube, en el que se propusieron averiguar cómo funciona el algoritmo de recomendaciones en esa red social. Una de las conclusiones es que los algoritmos están pensados, entre otras cosas, para enganchar a los usuarios en temas con contenidos “adictivos” en una especie de in crescendo. Y así tras recomendar videos de caídas tontas y chistosas, si se sigue por el camino que la plataforma sugiere, no raramente se termina en propuestas de videos con violencia, real, y muchas veces, brutal.
Tik Tok no se queda atrás. Sus algoritmos seleccionan de acuerdo a búsquedas anteriores y, en especial, según el tiempo que se consume. Este tipo de recomendaciones hace que frecuentemente el usuario termine en lo que alguien ha llamado un “agujero temático”, con contenidos francamente perjudiciales para cualquiera: violencia, sexo, discriminación… o al menos repetitivos.
Para ser justos, habrá que señalar que todas las plataformas cuentan con métodos que ayudan a retirar miles de entradas nocivas por hora. Pero, en comparación con la tasa de material que se carga alrededor del mundo, según los expertos, los censores están en permanente desventaja.
¿Cómo hacen sus dueños para mantener las plataformas “encendidas”? Según la investigación del WSJ, entre otros métodos, Facebook da un punto a cada “me gusta”, y cinco puntos a cada “me enoja”. Pues este segundo modo de comentar es comprobadamente bastante más eficaz que el primero para lograr reacciones (y, en la mayoría de los casos), polémica.
Más todavía: ¿no le ha extrañado al lector encontrar entre las recomendaciones de Youtube videos que no tienen nada que ver con sus búsquedas y sus visiones anteriores? La causa es que la plataforma recomienda aproximadamente el 40% de sus sugerencias basándose no tanto en los historiales particulares, sino, simplemente, en que se trate de videos populares, en general.
Según la directora del estudio de Mozilla, en todo esto hay una contradicción: por un lado, las plataformas tienen algoritmos que recomiendan videos objetables, mientras que, por otro, en los mismos portales, hay procedimientos que tratan de eliminar dichos videos… Una aclaración de la paradoja vendría si se identifica el dilema que surge entre la responsabilidad moral de quienes manejan los contenidos, y el negocio de lograr material con alto tráfico, o viralidad.
A la disyuntiva ¿qué escoger entre el negocio y el bien social? La respuesta, con poco que se considere, es evidente al comprender que las redes sociales no están allí para hacer el bien, sino para ganar dinero.
Un dinero que entra en sus arcas a partir de exacerbar la curiosidad de los usuarios, de ofrecer a sus clientes publicidad con alta exposición para la gente, en proporcionar a quienes intentan difundir ideas (o pura y dura propaganda) mentes predispuestas a tragarse todo lo que se les ofrezca envuelto en espejitos de colores, o en forma de aparente entretenimiento más o menos inocuo.
Ingeniero/@carlosmayorare