Desde que (en 1941) las computadoras tomaron forma, primero llenaron habitaciones enteras, luego escritorios de oficina y luego bolsillos. Pero todos tenían una cosa en común: fueron diseñados por mentes humanas. A lo largo de los años, muchas personas se han preguntado: ¿y si las computadoras se diseñan por sí mismas?
Algún día, pronto, una computadora inteligente podría crear una máquina mucho más poderosa que ella misma. Esa nueva computadora probablemente haría otra aún más poderosa, y así sucesivamente. La inteligencia artificial viaja en una curva ascendente exponencial, alcanzando alturas de cognición inconcebibles para los humanos. Esta, en una palabra, es la singularidad tecnológica.
Singularidad tecnológica
El término "singularidad tecnológica" se remonta a más de 50 años, cuando los científicos estaban empezando a manipular el código binario y los circuitos que hacían posible la computación básica. Incluso entonces, la singularidad tecnológica era un concepto asombroso y formidable.
Una nueva generación de computadoras superinteligentes podría revolucionarlo todo. Desde la nanotecnología hasta la realidad virtual inmersiva y los viajes espaciales superlumínicos.
Con la singularidad tecnológica, en lugar de explotar solo nuestro cerebro de base biológica, podríamos usar inteligencia artificial, interactuar con ella. Mejorar o aumentar el rendimiento de nuestro cerebro. con implantes, o incluso subir digitalmente nuestras mentes a sobrevivir a nuestros cuerpos.
El resultado de la singularidad tecnológica sería una humanidad sobrealimentada, capaz de pensar a la velocidad de la luz y libre de preocupaciones biológicas.
Un mundo totalmente nuevo
El filósofo Nick bostrom cree que este mundo dinámico podría traer una era completamente nueva.
En este mundo todos seríamos más como niños en un Disneyland gigante dirigido no por humanos, sino por máquinas que hemos creado, o que ellos mismos han creado.
Nick bostrom, filósofo, escritor y director del Future of Humanity Institute de la Universidad de Oxford
El cielo estrellado sobre mí, la ley moral dentro de mi procesador.
La singularidad tecnológica podría llevarnos a una fantasía utópica o una pesadilla distópica. Y este Bostrom lo sabe bien. Durante décadas ha estado pensando en el surgimiento de una IA superinteligente y sabe bien los riesgos que conllevan tales creaciones.
Existe la clásica pesadilla de ciencia ficción de una revolución robótica, por supuesto, en la que las máquinas deciden que prefieren tener el control de la Tierra.
Sin embargo, es aún más probable la posibilidad de que el código moral de una IA superinteligente, sea lo que sea, simplemente no se alinee con el nuestro.
Una IA a cargo de flotas de automóviles autónomos o de la distribución de suministros médicos podría causar estragos si ya no valora la vida humana de la misma manera que nosotros.
El problema de la alineación de la IA, como se le llama, ha adquirido una nueva urgencia en los últimos años, gracias en parte al trabajo de pensadores como Bostrom.
Singularidad tecnológica y divergencias de pensamiento
Si somos incapaces de controlar la inteligencia artificial superinteligente, nuestro destino puede depender de que la inteligencia artificial del futuro piense como nosotros. En este frente, Bostrom nos recuerda que se están realizando esfuerzos para “diseñar la IA de tal manera que realmente elija cosas que sean beneficiosas para los humanos y opte por pedirnos una aclaración cuando no esté claro lo que queremos decir. "
Hay formas en las que podemos enseñar la moral humana a una superinteligencia naciente. Se podría enseñar a los algoritmos de aprendizaje automático a reconocer el sistema de valores humanos, como hoy GAN se entrenan en una base de datos de imágenes y textos. O varias IA podrían discutir entre sí, bajo la supervisión de un moderador humano, para construir mejores modelos de preferencias humanas.
Una cuestión de respeto
Si la singularidad tecnológica fuera a crear ya no máquinas simples, sino mentes pensantes artificiales reales, también deberíamos considerar el aspecto ético. Sería, dice Bostrom, una necesidad preguntarnos si es correcto influir en ellos y en qué medida.
En esta era de máquinas conscientes, en definitiva, la singularidad tecnológica podría imponer una nueva obligación moral al ser humano: tratar a los seres digitales con respeto.