Todos conocen la historia del ingeniero de Google que vio signos de personalidad en el último chatbot de IA de Google (y más tarde fue despedido). ¿La opinión unánime de los periodistas y sobre todo de los expertos? contrario , contrario , contrario e ... contrario.
A través de diferentes caminos, todos parecen haber llegado a la misma conclusión, que si lo piensas bien es también una conclusión de sentido común además de técnica. Un chatbot, independientemente de cómo esté desarrollado, es una función. Funciones no son sensibles. Pero pueden estar tan evolucionados que engañan a la gente, oh, sí que pueden. Así que la verdadera pregunta es: ¿quién los controlará? ¿Se utilizarán de forma transparente? Sígueme.


Porque la IA "solo" funciona
Volvamos a nuestras nociones oxidadas de la escuela para decir: una función es una regla para convertir un número (o lista de números) en otro número (o lista de números). De acuerdo con esta definición, TODOS los sistemas de inteligencia artificial actuales son funciones, incluido el chatbot LaMDA que desató el alboroto y le costó al ingeniero su asiento.
Claro, estas son funciones muy complejas, pero aún funcionan: El software detrás de un chatbot incluye reglas para convertir un mensaje escrito con letras en un número que el software usa como entrada x y luego convierte la salida f (x) nuevamente en un mensaje con letras. Cualquier ordenador actual, incluido el de vuestros móviles, realiza estas tareas de forma habitual.
En lugar de hablar en círculo completo sobre lo que significa la palabra "consciente" (que nadie parece ser capaz de definir), podríamos preguntarnos cómo los humanos deberían aprender a aprovechar el extraordinario poder de estas funciones complejas.
El núcleo: las funciones pseudoaleatorias
Los matemáticos y los ingenieros llevan mucho tiempo descubriendo o desarrollando nuevas funciones. Por ejemplo, las funciones "pseudoaleatorias", que generan resultados completamente predecibles (para cualquiera que conozca su fórmula subyacente), pero que parecen aleatorios para todos los demás.
Durante su fase de "entrenamiento", el software de chatbot examina grandes cantidades de texto. Imagina encontrar que la mitad de las veces la frase "a mi perro le gusta" es seguida por "buscar" o "masticar muebles". Cuando el chatbot entrenado se pone a conversar con un humano, las entradas que recibe (las palabras de su interlocutor) pueden indicar que es hora de decir algo sobre un perro.
El software en ejecución utiliza una de las funciones pseudoaleatorias para elegir qué decir sobre el perro: "jugar a buscar" o "masticar muebles".


¿Quién es el dueño de estas fórmulas?
Tradicionalmente, aquellos que desarrollaron un mejor método para simular la aleatoriedad lo publicaron para que otros pudieran criticarlo y copiarlo. Es por eso que funciones de este tipo han tenido mucho éxito y se han generalizado: hoy en día, la aleatoriedad simulada se usa en muchas aplicaciones, incluida la protección de transacciones en Internet. Sin perspectivas de convertirse en multimillonarios, muchos científicos han descubierto nuevas funciones y las han compartido; todos han progresado. Era un buen sistema. Ha funcionado durante siglos. ¿Y ahora?
En el campo de la inteligencia artificial, el progreso en la frontera del conocimiento ahora está dominado por unas pocas empresas privadas. Tienen acceso a suficientes datos y suficiente poder de cómputo para descubrir y explotar funciones extraordinariamente poderosas que nadie que observe desde el exterior puede entender.
El cruce
Tomemos LaMDA. es impresionante Muestra que la inteligencia artificial podría ofrecer a las personas nuevas y asombrosas formas de acceder a todo el conocimiento humano. Con el tiempo, tal vez, Google podrá modificar LaMDA para convertirlo en el nuevo "motor de búsqueda". Nos aparecerá como un asistente mucho más inteligente que los actuales. Él nos escuchará, nos comprenderá y, a menudo, incluso se anticipará a nuestros pensamientos.
Podrá, si se desea, guiar nuestras elecciones aportando miles de millones de dólares en ingresos a las empresas que se beneficiarán de ello.
O, en manos de grupos desinteresados, mejorarán el acceso al conocimiento humano, quizás convirtiéndose en la nueva wikipedia (ojalá mejor que la anterior).
¿Cómo crees que terminará?
No se deje engañar por las funciones, por complejas que sean. Los ingenieros de Google no son los Dres. Frankenstein modernos. No están dando a luz a seres sensibles. Simplemente están creando la "Nueva Coca Cola", un producto súper difundido, omnipresente, basado en un ingrediente secreto y único del cual solo ellos conocen la fórmula.
En lugar de discutir si un chatbot es "consciente", deberíamos considerar las consecuencias a largo plazo de un sistema que se desvía de la ciencia. Un sistema que pasa de un conocimiento que beneficia a todos a uno en el que un conocimiento "secreto" transmite poder y ganancias a unos pocos gigantes tecnológicos, que poco a poco se vuelven cada vez más poderosos, incluso políticamente. Nuevos gobernantes de un mundo menos justo.