El debate sobre la inteligencia artificial tiene un nuevo punto de partida. Durante décadas, los humanos se han preguntado si la información que se programa en una máquina es conocimiento verdadero o simplemente cálculo. Hoy, los investigadores estadounidenses afirman que su nueva inteligencia artificial tiene una moralidad propia.
Más preguntas que respuestas
Han surgido muchas preguntas desde el advenimiento de la inteligencia artificial (IA), incluso en sus encarnaciones más primitivas. Un solicitante es: ¿Puede la IA realmente razonar y tomar decisiones éticas en un sentido abstracto, en lugar de inferirse de la codificación y la computación?
Para ser más precisos: si a una IA se le dice que dañar intencionalmente a un ser vivo sin provocación es "malo" y no debe hacerse, la IA entenderá la idea de "malo", ¿entenderá por qué está mal? para hacerlo? ¿O se abstendrá de actuar sin saber por qué? En otras palabras, ¿tendrá su propia moralidad?
Según un equipo de investigadores de un laboratorio de Seattle llamado Allen Institute for AI, es posible. Es más: ellos mismos dicen que han desarrollado una máquina de inteligencia artificial con sentido moral, y la han llamado Delphi, en honor al (casi) oráculo homónimo. Desde el mes pasado se puede visitar el sitio de Delphi y pedir una "respuesta moral".
Un oráculo cibernético
Delphi ya ha recibido más de 3 millones de visitas. José Austerweil, psicólogo de la Universidad de Wisconsin-Madison, probó la "moralidad" de Delphi con algunos escenarios simples. Cuando se le preguntó a Delphi si tenía que matar a una persona para salvar a otra, Delphi dijo que no debería. Cuando preguntó si estaba bien matar a una persona para salvar a 100 más, dijo que debería hacerlo. Y a veces incluso dio respuestas "inmorales".
"Es un primer paso para hacer que los sistemas de inteligencia artificial estén más informados éticamente, socialmente conscientes y culturalmente inclusivos", dice. Yejin Choi, investigador del Instituto Allen y profesor de informática de la Universidad de Washington que dirigió el proyecto. Un día, dice, esta "moralidad" podría equipar sistemas de inteligencia artificial, asistentes virtuales, vehículos autónomos para ayudarlos a tomar la decisión correcta.
¿Qué es realmente Delphi? ¿Es su "moralidad" sólo un reflejo de la de sus creadores, o tiene su propio sentido de lo que está bien y lo que está mal? Si es así, ¿cómo lo desarrolló? Hay dos teorías que podrían ayudarnos a comprender mejor.
Descargo de responsabilidad: Me disculpo de antemano si alguien cree que he ejemplificado demasiado estas teorías, por el bien de la síntesis y no para hacer que el razonamiento sea dispersivo. Si es así, estoy abierto a sugerencias.
La tesis fuerte de la IA
Hay una tesis llamada "IA fuerte" que el difunto prof. daniel n robinson, miembro de la Facultad de Filosofía de la Universidad de Oxford, ha pronunciado muchas veces. Intento resumirlo aquí.
Imagine, dijo el Dr. Robinson, que alguien construya un programa general para proporcionar un juicio experto sobre enfermedades cardiovasculares, leyes constitucionales, acuerdos comerciales, etc. Si el programador pudiera hacer que el programa realizara estas tareas de una manera indistinguible de un humano, de acuerdo con la "tesis fuerte de la IA", este programa tendría inteligencia experta. y algo mas.
¿Qué?
La fuerte tesis de la IA sugiere que pueden existir procesos computacionales no especificados que constituirían intencionalidad. La intencionalidad significa tomar una decisión deliberada y consciente, que a su vez implica razonamiento y sentido de valores. (Cuánto me recuerda Westworld a todo esto). Sin embargo, ¿es realmente posible?
Teorema de gödel
El teorema de la incompletitud, conocido como Teorema de gödel, establece que cualquier sistema formal es incompleto ya que dependerá de un teorema o axioma, cuya validez debe establecerse fuera del sistema mismo.
Kurt Godel desarrolló este teorema con una excepción: la inteligencia humana. En otras palabras, Gödel creía que debe haber algo en la racionalidad e inteligencia humanas que no pueda ser capturado por un sistema formal y convertido en un código. En resumen, la inteligencia humana no puede imitarse ni modelarse sobre una base computacional.
Quien tiene razon
Si el tiene razon Gódel, no es cuestión de tiempo: una IA NUNCA tendrá su propia moralidad. Nunca tendrá una inteligencia igual a la de los humanos, por el simple hecho de que la inteligencia humana no es una inteligencia basada en el cálculo.
Sin embargo, si la sólida tesis de la IA y el equipo de Seattle están en lo cierto, quizás estemos en vísperas (cerca o lejos) de una revolución extraordinaria en el campo de la inteligencia artificial.