Esta publicación es parte de “Periscopio”, el boletín de Linkedin que cada semana explora temas de Future Coming, y se publica con anticipación en la plataforma de LinkedIn. Si quieres suscribirte y obtener una vista previa, Encuéntralo todo aquí.
Los algoritmos gobiernan cada vez más nuestras vidas, guían nuestras elecciones y llenan nuestros días. Un algoritmo es un sistema "oculto" y omnipresente que domina, en su mayor parte, nuestras realidades digitales comunes.
Cuando escuchas música en iTunes, reproduces un video en YouTube, buscas el próximo regalo de cumpleaños en Amazon, miras tu programa favorito en Netflix o incluso buscas noticias en Google, es un algoritmo que decide las opciones disponibles para ti y, indirectamente, lo que eventualmente consumirás.
Los algoritmos construyen verdaderos "embudos" en los que nuestra visión de la realidad cae y termina en una dirección precisa. Es bueno cuando Spotify encuentra una canción pegadiza, pero es terrible cuando una plataforma social logra influir en el resultado de lo que deberían ser elecciones libres.
Esta es una gran influencia, cuidadosamente planificada y sostenida por muy pocos jugadores en el mundo: las grandes empresas tecnológicas.
¿Un algoritmo tiene que funcionar así?
Hay algo gratificante en lograr nuestros objetivos a través de un algoritmo. Es como tener a alguien a nuestro lado que nos “entiende sobre la marcha” y nos dice, o nos aconseja, lo que siempre queremos escuchar. Es por eso que los seres humanos quieren más y más. Y las empresas los emplean porque les garantizan mayores ganancias. Pero, ¿esto solo puede funcionar? ¿Es lo correcto?
La pregunta ya ha surgido, lo hacemos cada vez con más frecuencia e incluso los lectores de este blog no la rehúyen: ¿Cómo podemos defendernos de los efectos negativos de los algoritmos de inteligencia artificial?
Podemos restringir el uso de las redes sociales, o incluso eliminar cuentas. Podemos estar desconectados tanto como sea posible, o al menos algunos días al mes. Podemos hacer una investigación exhaustiva en los periódicos para evitar ser influenciados por noticias falsas y mentiras. Claro, podemos, a costa de sacrificios, pero podemos. Pero, ¿por qué tiene que depender sólo de nosotros?
¿Por qué tenemos que hacer todo nosotros mismos?
Debe haber algo que las propias empresas tecnológicas deben hacer, están obligadas a hacer para mejorar la situación. Tenemos que cuestionar el panorama completo, y el panorama es: un algoritmo está inherentemente diseñado para ocupar nuestro tiempo y atención al explotar nuestras vulnerabilidades psicológicas. Punto. Esto es todo, es la verdad.
Y es algo serio, sobre todo para las nuevas generaciones que han crecido entre constantes broncas en las redes sociales y pequeños “me gusta” de gratificación. Y darse el consejo de abstenerse de navegar, o tener hábitos diferentes, o hacer otros esfuerzos, significa aceptar pasivamente que las empresas tecnológicas seguirán explotando los algoritmos cada vez más, y cada vez peor.
La verdadera pregunta que hay que hacer es otra. La pregunta es, ¿por qué un algoritmo está optimizado para el compromiso en lugar del bienestar? ¿Y qué se necesita para cambiar este estado de cosas?
Se busca algoritmo de felicidad
Con una modesta cantidad de trabajo, los algoritmos podrían modificarse para defender y mejorar nuestra delicada psicología, en lugar de explotarla. Se debe entrenar un algoritmo para mejorar el bienestar, en lugar de la interacción.
Trate de imaginar cómo mejorarían las cosas.
Claramente, Big Tech ni siquiera piensa en eso. El ex presidente de Facebook, Sean Parker, que vio nacer al gigante de las redes sociales, dijo hace mucho tiempo que el principal objetivo de la plataforma era cómo aprovechar al máximo el tiempo y la atención de los usuarios.
Sí, lo sabes. El objetivo es la ganancia. Y la moneda es nuestra atención. ¿Las consecuencias? En el fondo. Ya sea que sepan lo que están haciendo o que viajen sin frenos hasta llegar a un punto de ruptura, las empresas de tecnología nos están haciendo daño y son responsables.
La importancia de una ética de la IA
Por supuesto, habría (aparentemente) buenas noticias: el advenimiento de la ética de la IA y las iniciativas colaborativas de código abierto ha ejercido cierta presión sobre estas empresas. Ahora están haciendo lo que pueden para mostrar su compromiso de mejorar sus plataformas. Google, Facebook, Microsoft y otros han contratado a muchos expertos en ciencias sociales: ¿el objetivo? Humanizar sus tecnologías.
Una tarea obviamente ardua, que encuentra obstáculos desde el principio: todos recordamos Timnit Gebru, el experto en ética licenciado por Google en 2020 por poner en el banquillo el 'racismo' de su Inteligencia Artificial. No fue el único, ni el último, despido de este tipo. Siguió en 2021 Margaret Mitchell, del mismo equipo de ética de Google.
Aún así, estos expertos están siendo despedidos por hacer aquello para lo que fueron contratados: analizar los riesgos potenciales de la tecnología. En otras palabras, está bien contratar expertos en ética, siempre que no interfieran con los planes clave de la empresa.
La ética de la IA será una práctica empresarial insostenible si los profesionales no pueden hacer su trabajo, es decir, empoderar a las empresas para las que trabajan.
Anteponer a las personas a las ganancias
En los últimos años, la reputación y la imagen pública de estas empresas se han reducido drásticamente como resultado de estas elecciones. Y cada vez son más los investigadores que intentan unirse para seguir trabajando en la ética de la tecnología sin obedecer a los objetivos económicos de estos gigantes.
Y tal vez sea lo mejor: es poco probable que las empresas de tecnología realmente escuchen a sus equipos de ética si su problema es puramente económico. Si la introducción de la ética no reduce sus ganancias, lo harán; si no, evitarán que estos equipos funcionen.
Por esta razón, la propia Timnit Gebru fundó la Instituto de Investigación de Inteligencia Artificial Distribuida (DAIR) y Margaret Mitchell trabaja como investigadora y jefa científica de ética en Abrazando la cara .
Si los equipos de ética internos no pueden hacer un verdadero trabajo (y no pueden, me parece obvio), es mejor buscar la solución fuera.
El ejercito de salvacion
Como se mencionó, estamos viendo cada vez más esfuerzos en el campo de la inteligencia artificial, pero fuera de las grandes empresas tecnológicas. Hay sujetos que están trabajando colectiva e individualmente para revertir el destino del "dominó del algoritmo": además de los mencionados DAIR y Hugging Face hay gran ciencia, Eleuther IA e Instituto de ética de IA de Montreal , entre otros. En Italia tenemos la Sociedad Italiana para la Ética de la Inteligencia Artificial.
Tal vez ha llegado el momento de que incluso aquellos con peso y poder político real asuman un papel más activo en el seguimiento de las sociedades que tienen nuestro futuro en sus manos.
Un algoritmo construido alrededor de los humanos
En este sentido, la UNESCO ha elaborado un conjunto de recomendaciones para garantizar que cada algoritmo de IA esté centrado en el ser humano.
“Debemos crear reglas y marcos internacionales y nacionales para garantizar que estas nuevas tecnologías beneficien a la humanidad en su conjunto”, dice el documento.
"Es hora de que la IA sirva a las personas, no al revés"
“La inteligencia artificial ya afecta nuestras vidas. Hay algunos vacíos legislativos en esta área que deben abordarse de inmediato. El primer paso es acordar qué valores se deben proteger y cómo se debe respetar la normativa. Hay muchos marcos y directrices, pero se aplican de manera desigual y ninguno es realmente global. Y como la inteligencia artificial es global, nosotros también debemos serlo”.
Compromiso con el mundo
El tratado de la UNESCO fue aprobado hace apenas 7 meses, el 24 de noviembre de 2021. Es un primer paso fundamental para controlar las empresas que operan en ámbitos legales con tecnologías superpoderosas.
China también ha abierto el camino para una regulación sin precedentes para responsabilizar a las personas por el poder de un algoritmo. El 1 de marzo, el gobierno chino activó una ley que permitirá a los usuarios deshabilitar por completo las recomendaciones de algoritmos, entre otras medidas para otorgar a las personas poder de decisión sobre las empresas tecnológicas.
El hecho de que la ética de la inteligencia artificial haya llamado la atención de los organismos reguladores mundiales revela cuán importante es para el bienestar individual y colectivo. ¿Estamos al comienzo de la investigación para transformar un algoritmo "enfermo" que nos enferma en un algoritmo de bienestar?
no puedo decir Pero tenemos que intentarlo a toda costa.