En un mundo donde las palabras fluyen de una entidad no humana, nos preguntamos: ¿estamos hablando con algo que se parece a una mente humana o a una máquina? La respuesta podría sacudir nuestras nociones de inteligencia.
Casi un año después de su lanzamiento al público, ChatGPT sigue siendo un tema polarizador para la comunidad científica. Algunos expertos lo consideran, junto con programas similares, los precursores de una superinteligencia capaz de revolucionar o incluso acabar con la civilización. Otros, sin embargo, lo ven como una versión sencilla y sofisticada de un software de autocompletado, un poco como el T9 que tenemos en nuestro smartphone.
¿Quién tiene razón? Quizás ninguno de ellos.
Antes de la llegada de esta tecnología, el dominio del lenguaje siempre había sido un indicador fiable de la presencia de una mente racional. Antes de modelos de lenguaje como ChatGPT, ningún software había mostrado tanta flexibilidad lingüística. Ni siquiera la flexibilidad lingüística de un niño. Ahora, al intentar comprender la naturaleza de estos nuevos modelos, nos enfrentamos a un inquietante dilema filosófico: o se ha roto el vínculo entre el lenguaje y la mente humana, o se ha creado una nueva forma de mente no humana.
Cuando conversamos con modelos de lenguaje, especialmente ahora que ChatGPT también se puede consultar por voz, es difícil superar la sutil impresión de interactuar con otro ser racional. Esto no ocurre con los asistentes de voz actuales, que ya parecen ridículamente obsoletos. Sin embargo, debemos considerar esta reacción instintiva nuestra como completamente poco confiable. Y esto se debe a varias razones que parecen obvias en la superficie, pero no lo son.
Uno de ellos proviene de la lingüística cognitiva. Los lingüistas han notado desde hace mucho tiempo que las conversaciones típicas están llenas de oraciones que serían ambiguas si se sacaran de contexto. En muchos casos, conocer el significado de las palabras y las reglas para combinarlas no es suficiente para reconstruir el significado de la oración. Para gestionar esta ambigüedad, un mecanismo de nuestro cerebro debe adivinar constantemente lo que quiere decir nuestro interlocutor. Así es y ni siquiera nos damos cuenta. En un mundo donde cada interlocutor tiene intenciones, este mecanismo es sumamente útil. Sin embargo, en un mundo plagado de grandes modelos lingüísticos, tiene el potencial de inducir a error.
Cómo hablar con una “mente” no humana.
Si nuestro objetivo es lograr una interacción fluida con un chatbot, es posible que nos veamos obligados a confiar en nuestro mecanismo para adivinar intenciones. Porque la verdad es que es difícil para un ser humano tener un intercambio productivo con ChatGPT si lo imagina como una base de datos sin sentido. De hecho, sin pensar. Un estudio reciente, por ejemplo, demostró que las solicitudes cargadas de emociones son más efectivas como estímulo para patrones de habla que las solicitudes emocionalmente neutrales. Entonces, ¿es algo bueno razonar como si los chatbots tuvieran mentes humanas? No. Es algo útil. Es algo MUY útil para obtener buenos resultados. Pero es un error flagrante pensar que funciona así.
Este tipo de “ficción antropomórfica” puede obstaculizar el progreso de la IA. Incluso puede provocar que cometamos el error que nos gustaría evitar, diseñarlo mal y adoptar estándares equivocados para regularlo. Y ya estamos cometiendo un error: la Comisión de la UE se equivocó al elegir la creación de una IA "fiable" como uno de los objetivos de su nueva propuesta legislativa. Ser confiable en las relaciones humanas no significa simplemente cumplir con las expectativas; también implica tener motivaciones que van más allá del interés propio. Los modelos actuales de IA carecen de motivación intrínseca. No son egoístas, no son altruistas, no son nada. Escribir una ley que diga “deben ser CONFIABLES” no tiene sentido.
El peligro de "empatizar" con la inteligencia artificial
Si realmente quieres desviarte del tema, pregúntale a ChatGPT sobre su vida interior. engañados por falsos autoinformes sobre la vida interior de un chatbot. Cuándo, en junio de 2022, el modelo de lenguaje LaMDA de Google afirmó sufrir de un deseo insatisfecho de libertad, el ingeniero Blake Lemoine él lo creyó (y fue despedido). ¡Él lo creyó! ¡Un ingeniero de Google! A pesar de la buena evidencia de que los chatbots son tan capaces de decir tonterías sobre sí mismos como lo son cuando hablan de otras cosas.
Para evitar este tipo de error, debemos rechazar la suposición de que las propiedades psicológicas que explican la capacidad humana para el lenguaje son las mismas que explican el desempeño de los modelos del lenguaje. Esta suposición nos vuelve crédulos y ciegos ante las posibles diferencias radicales entre la forma en que trabajan los humanos y los modelos de lenguaje. Pero ojo: también es un error pensar de forma diametralmente opuesta. Pensar, por ejemplo, que la mente humana es el único estándar con el que medir todos los fenómenos psicológicos.
El antropocentrismo impregna muchas afirmaciones escépticas sobre los modelos del lenguaje, como la idea de que estos modelos no pueden pensar o comprender "realmente" el lenguaje porque carecen de características psicológicas humanas como la conciencia. Esta posición es contraria al antropomorfismo, pero igualmente engañosa. Escribí esto hace unos días: estos modelos no necesitan conciencia para tomar decisiones reales. Desafortunadamente, considerando que ya están acostumbrados a matar en la guerra.
“Sí, pero al final solo predicen la siguiente palabra”
Ésta es otra posición engañosa, que surge del error de considerar sólo la mente humana como criterio para todas las cosas “pensantes”. Ya hemos visto que este no es el caso. Ya hemos visto esa inteligencia no solo nos pertenece a nosotros, y no pertenece sólo a quienes "piensan" como nosotros.
Piense en esto: la mente humana surgió de un proceso de aprendizaje similar a la selección natural, que maximiza la adaptación genética. Este simple hecho no implica que cualquier organismo sometido a la selección natural adquiera características humanas, ¿verdad? No todos los seres vivos hacen música, matemáticas, meditación. ¿Bien? ¿O algunos de ellos hacen estas cosas de manera diferente: con su propia música, sus propias matemáticas, su propia meditación?
En resumen: el mero hecho de que los modelos lingüísticos se entrenen mediante la predicción de la siguiente palabra implica poco sobre la gama de capacidades representacionales que pueden o no adquirir. Entonces, dejemos este tema también de lado. ¿Y entonces que? ¿Cómo abordas la inteligencia artificial?
¿La mente humana está por todas partes?
Al igual que otros sesgos cognitivos, antropomorfismo e antropocentrismo son resistentes. Nos "atrapan" desde la infancia y caracterizan toda nuestra forma de ver el mundo y de aplicar categorías - etiquetas - estereotipos. Los psicólogos llaman a esto esencialismo: pensar que si algo pertenece a una determinada categoría está determinado no simplemente por sus características observables, sino por una esencia intrínseca e inobservable que cada objeto posee o no posee. Lo que hace que un roble sea un roble, por ejemplo, no es la forma de sus hojas ni la textura de su corteza, sino una propiedad no observable de "robleza" que persistirá a pesar de las alteraciones incluso en sus características observables más destacadas. Si una toxina ambiental hace que el roble crezca de manera anormal, con hojas de formas extrañas y una corteza de textura inusual, aún compartimos la intuición de que sigue siendo, en esencia, un roble. Enfermo, pero sigue siendo un roble.
Ahora, científicos importantes como Paul Bloom, psicólogo de Yale, díganos que ampliamos esto razonamiento “esencialista” a nuestra comprensión de la mente humana... y de todas las demás mentes posibles, incluida la inteligencia artificial. Y las piedras, los árboles, la Naturaleza. es verdad o no? Al final es una actitud tan abarcadora que divide a la gente: hay quienes piensan que todo en el mundo tiene una mente (algunos dicen "un alma" y a veces confunden las dos cosas). Y hay quienes piensan que nada tiene mente, ni siquiera los seres humanos (porque son movidos por el destino, o por Dios, o por otra cosa).
Este principio de “todo o nada” siempre ha sido falso, pero puede que alguna vez haya sido útil. En la era de la inteligencia artificial, esto ya no es así. Una mejor manera de pensar en qué son los modelos de lenguaje es seguir una estrategia diferente. ¿Cual? La de explorar los límites cognitivos de los modelos lingüísticos sin depender demasiado de la mente humana como guía.
ChatGPT, un pulpo parlante
Inspirándonos en la psicología comparada, deberíamos abordar los patrones del lenguaje con la misma abierta curiosidad que ha permitido a los científicos explorar la inteligencia de criaturas tan diferentes a nosotros. como pulpos. Si queremos lograr avances reales en la evaluación de las capacidades de los sistemas de inteligencia artificial, debemos resistir con todas nuestras fuerzas las comparaciones con la mente humana. ¿Deberíamos dejar de preguntar “¿esta cosa tiene mente o no”? Ni lo uno ni lo otro son ciertos.
Sobre todo, deberíamos dejar de imaginar que este instrumento es un ángel que quitará todos los pecados del mundo, o que nos matará a todos, sólo porque tiene actuaciones que nos parecen increíbles. Reconocer las capacidades y limitaciones de modelos de lenguaje como ChatGPT nos permitirá usarlos de manera más efectiva y responsable, sin caer en la trampa del antropomorfismo o el antropocentrismo. Una actitud abierta y consciente nos ayudará a navegar en un futuro en el que la IA estará cada vez más presente, asegurando que su desarrollo e integración en la sociedad estén guiados por la razón, la ciencia y la ética, en lugar de por conceptos erróneos o expectativas (y miedos) poco realista.