El sapo, la estaca, el algoritmo
Que la culpa no sea de la estaca es una idea que debiera ponerse en duda.
Por Alberto Chanona Publicado en Ciencia y tecnología, Columnas y opiniones, Historias en 22 enero, 2021 0 Comentarios 10 min lectura
Ruidos en la noche Anterior ¿Por qué te fuiste de Whatsapp? Siguiente

Hace algunas semanas, di clic en una reseña literaria recomendada por el algoritmo de Youtube. Llamó mi atención el discurso del presentador: histriónico, grandilocuente, más interesado en la digresión que le permitía emitir juicios sobre temas que iban desde el feminismo y lo que llamaba «ideología de género», hasta la izquierda progre y la pérdida de libertades. Su propósito no era desde luego analizar una obra, sino cómo esa obra apoyaba sus ideas sobre el mundo.

No es nada extraordinario que quien ejerce la crítica (literaria o de cualquier índole) lo haga para satisfacer su propia agenda. Lo mismo da si es contra el populismo que contra la corrupción, a favor del capital o de los pueblos. Tampoco es raro –y sí, en cambio, necesario– recurrir a esos y otros temas para dar contexto al objeto que se analiza. De hecho, entre quienes observamos, solemos asumir que no existe la neutralidad en la crítica y tomamos el discurso, para bien y mal, dependiendo de quien venga. O sea, prestando atención, pero con pinzas. Por si acaso.

El hecho de haber visto en Youtube el video mencionado no tendría mayor interés, de no ser porque enseguida fui empujado y caí en una espiral cada vez mayor de miseria y locura, un pozo de desesperación casi humana, casi monstruo, un círculo infernal de odio y de maldad ciega, ruin, abyecta, sin origen, ni final, ni propósito. Parecía, lo juro, película de Von Trier. Pero era nomás el algoritmo, que a partir de ese momento no cejó en su interés acosador de recomendarme más y más contenidos del sujeto gesticulador y otros semejantes a él. Hablo de personas profundamente desesperadas no tanto por reflexionar o probar que tienen razón, que hay justicia en su causa, sino por enseñar a sus huestes cómo derrotar (ésa es la palabra que usan), con «argumentos», y llamar idiotas (ellos) a sus enemigos ideológicos: peatones, ciclistas, veganos, ecologistas, feministas, homosexuales, socialistas, comunistas, anarquistas y un infeliz perrito, creo, que se les atravesó en la autopista y vulneró así los derechos de su camioneta a pasar primero. O algo así.

No soy una persona astuta, pero no me quedé viendo esos videos nomás por menso. Sencillamente, sentí curiosidad. La satisfice. Fin. Excepto que no fue tan fácil. Porque uno puede pensar que ha terminado con Youtube, pero Youtube aún no ha terminado con uno.1

Youtube es un meme: es el señor borracho que te toma del brazo antes de contarte algo en una fiesta y no te vuelve a soltar hasta el próximo día de asueto. Así que el algoritmo persistió en su acoso recomendador. Decidí, a fin de cambiar esas sugerencias, ver unos cuantos videos de categorías contrarias. Porque fuego se combate con fuego, pensé (ya he dicho que no soy una persona astuta). Y no creerás lo que pasó…

Es simple: mi timeline terminó de convertirse en un manicomio donde los locos aúllan en todas direcciones; y mi escasa comprensión del mundo, en un lugar más aterrador.

Y pensar que había dejado Twitter por razones como ésa. Por el ruido.

Contra Chico Che (y la crisis)

Creo que tener opiniones está bien. Creo que confrontarlas con las de otros es mejor. Creo que la conversación es la piedra con la que pulimos una idea en obra negra, rozándola con otras. Con filtros o sin filtros. Con editores de por medio o sin ellos. Creo también que la falta de autocrítica, el egoísmo y el prejuicio son tanto como mentir. Y que la peor mentira es aquella con pinta de verdad. La que nos contamos una y otra vez, hasta que la creemos, sin interrogarla jamás. Con o sin consciencia.

Como sea, en el ejercicio involuntario con Youtube, descubrí lo tremendamente convincentes que pueden parecer algunas clases de falacia. Las que van envueltas en algunas capas de verdad, salpimentadas, previo cálculo, con algo de indignación de tal o cual grupo; con razón o tal vez no, por egoísmo y aun por idealismo. Eso explica, en parte, según yo, el amplio número de seguidores que consiguen algunos discursos y personajes en las redes sociales. Los discursos de odio, por ejemplo; pues aunque la apariencia de caricatura no siempre les ayuda, por lo general, ésa, la caricatura, es la fachada de rencores e ideas anidadas en capas más profundas.

«No creas que lo que pasó con Cambridge Analytica es lo peor que podría suceder. El sistema entero está diseñado para que ese tipo de cosas sucedan», dice Jaron Lanier.

Pensemos, por caso, en el reciente debate sobre la suspensión de las cuentas en redes sociales del exmandatario estadounidense Donald Trump. Más allá de si consideramos o no que fue censura (yo creo que lo fue, porque eso significa la palabra censura: reprobar, suprimir, emitir juicio), o si son esas plataformas quienes deben decidir lo que puede o no ser dicho, el hecho es que ni la popularidad de Trump ni la amplificación de los discursos de odio ocurren porque sean emitidos. Aunque indigne, la sola emisión de un discurso como el de Trump no basta para convencer a nadie de nada. Hace falta la repetición sistemática, día a día, una y otra vez, entre personas que opinen igual, o no, pero que sean propensas a ciertas opiniones; en especial, si los estímulos que reciben son, cada vez más, mediados por una pantalla (donde vive un editor robótico). ¿Y qué mejor medio, más inmediato, más popular, para repetir un estímulo, que una plataforma diseñada para eso? ¿No es ése el propósito de los algoritmos en esas maquinarias de entretenimiento colectivo: darnos casi exclusivamente y a manos llenas lo que nos gusta, aquello con lo que simpatizamos o nos indignamos, aquello que nos hace reaccionar (caritas enojadas o felices)? Todo eso, en conjunto, juega un papel, sin duda, en el éxito de discursos como el de Trump. O de cualquiera.

Trump no inventó ese mecanismo ni sus efectos. La repetición machacona, el reforzamiento sistemático entre un grupo numerosísimo de gente con el perfil adecuado, susceptible de ser influida, la fe del rebaño en sus propias capacidades, la consciencia de ser un montón. No es lo mismo emitir un mensaje al aire –incluso por medios masivos–, que lanzarlo a las personas correctas en el medio donde interactúan a diario, minuto a minuto, reforzándose entre ellas, una y otra vez.

El mecanismo descrito líneas arriba no siempre tiene efectos negativos para la sociedad. Los medios de comunicación pequeños y distintas luchas organizadas lo han empleado a su favor en todo el mundo.

Hacer que lo disperso se encuentre y se reúna no es una idea que, por fuerza, esté mal. No hay que olvidar, sin embargo, que por la misma carretera corre el paramédico y el criminal. El fuego que alivia es el fuego que destruye. El mismo fuego. Los algoritmos de las redes sociales, hechos para darnos aquello que nos gusta o nos indigna, pero no diversidad, no son un fuego que dé alivio. Son un fuego casi personal, casi colectivo, de ingeniería ambigua. El espejo ambidiestro, amigo y enemigo, que cada cual quiere ver. Porque lo que yo veo no es lo que mira mi vecino. Aunque ambos creamos, poco más o poco menos, que sí.

Desde que existen las redes sociales, nos gusta pensar que somos las personas quienes otorgamos la posesión o el rechazo del discurso público. Que se lo disputamos y arrancamos de las manos a los dueños de las radiodifusoras, televisoras, periódicos y revistas. En parte es así. Hay otra parte, sin embargo, menos autocomplaciente. Ese poder no proviene de nosotros, sino de los algoritmos. Pero igual que el algoritmo da, el algoritmo quita.

No me gustan las redes sociales. Veo, sin embargo, la utilidad que representan para un montón de gente, más allá de si las emplea bien o mal. Veo, sobre todo, su deseo e interés, y aun el de los medios, creadores y analistas, en estar ahí. No comparto su entusiasmo. Aunque tampoco ceo justo que se priven de él. Principalmente, porque no son ellos quienes deben cambiar en esa relación. Son los algoritmos. Son el modelo de negocio a cuyo propósito sirven esos algoritmos. Son la hipervigilancia, la recopilación de metadatos, las sugerencias, las reacciones y todos los mecanismos diseñados para generar adicción. Son, en suma, la estructura que permite que cualquiera, quien sea, se monte en ella para agrupar rebaños de ovejas. Blancas o negras. Las personas deberíamos poder ver, leer o escuchar cualquier cosa a nuestro alrededor que suceda en esa esfera colectiva (no pública) que es una red social, sin que ningún mecanismo decida, basado en nuestro comportamiento, qué es lo que debemos o podemos ver, leer o escuchar. Y si eso no es posible, entonces crear otras plataformas, de condiciones claras y abiertas, verificables.

Son ellas, las redes sociales y sus algoritmos, pienso, las que deberían cambiar. No las personas, que sólo quieren compartir, conversar, saberse acompañadas, opinar. O no. Pero es su decisión. No la presión social. No un vicio colectivo, fomentado. No un algoritmo.

El hecho es que eso no va a ocurrir. Sencillamente, es imposible:

«El negocio de los operadores de plataformas es vender una mercancía, su audiencia. Los productos se venden por medida y gradación. Puedes comprar 5 kilos de manzanas Smith Premium, o dos docenas de huevos de corral. O 2 millones de clicks de hombres blancos en el rango de edad de 18 a 35. (…) Dado que una plataforma financiada por publicidad debe clasificar su audiencia como una mercancía, debe recopilar datos sobre sus usuarios para poder clasificarlos. Esto significa que la única cosa que una plataforma no puede ofrecerle a sus usuarios es su privacidad. Al menos no privacidad de los operadores de la plataforma y sus anunciantes».

Dmytri Kleimer, Los hackers no pueden solucionar la vigilancia.

Las soluciones y estrategias, por desgracia, tienen que venir de los usuarios. Es ingenuo esperar de los dueños de esas plataformas nada más que simulaciones.

Una diferencia notable entre los efectos de la tecnología analógica y la digital es que hasta hace no demasiado, digamos, en tiempos de Chico Che, por ejemplo, la culpa no era de la estaca, sino del sapo. Hoy mismo, si la estaca incluyera un algoritmo, francamente, no estaría tan seguro.

  1. «Nosotros podemos pensar que hemos terminado con el pasado, pero el pasado nunca termina con nosotros», dice la frase original de Magnolia (P. Thomas Anderson, 1999).  (Regresar)

Chico Che Redes sociales Tecnología Trump Youtube


Anterior Siguiente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Cancelar Publicar el comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

keyboard_arrow_up