Desde que (en 1941) las computadoras tomaron forma, primero llenaron habitaciones enteras, luego escritorios de oficina y luego bolsillos. Pero todos tenían una cosa en común: fueron diseñados por mentes humanas. A lo largo de los años, muchas personas se han preguntado: ¿y si las computadoras se diseñan por sí mismas?
Un día, pronto, una computadora inteligente podría crear una máquina mucho más poderosa que ella misma. Esa nueva computadora probablemente haría otra aún más poderosa, y así sucesivamente. La inteligencia artificial recorre una curva ascendente exponencial, alcanzando alturas de cognición inconcebibles para los humanos. Esta, en una palabra, es la singularidad tecnológica.
Singularidad tecnológica
El término "singularidad tecnológica" se remonta a más de 50 años, cuando los científicos apenas comenzaban a jugar con el código binario y los circuitos que hacían posible la computación básica. Incluso entonces, la singularidad tecnológica era un concepto impresionante y formidable.
Una nueva generación de computadoras superinteligentes podría revolucionarlo todo. Desde la nanotecnología hasta la realidad virtual inmersiva y los viajes espaciales superlumínicos.
Con la singularidad tecnológica, en lugar de explotar solo nuestro cerebro de base biológica, podríamos usar inteligencia artificial, interactuar con él. Mejorar o aumentar el rendimiento de nuestro cerebro. con implantes, o incluso subir digitalmente nuestras mentes a sobrevivir a nuestros cuerpos.
El resultado de la singularidad tecnológica sería una humanidad sobrealimentada, capaz de pensar a la velocidad de la luz y libre de preocupaciones biológicas.

Un mundo totalmente nuevo
El filósofo Nick bostrom él piensa que este mundo dinámico podría traer una era completamente nueva.
En este mundo todos seríamos más como niños en un Disneyland gigante dirigido no por humanos, sino por máquinas que hemos creado, o que ellos mismos han creado.
Nick bostrom, filósofo, escritor y director del Future of Humanity Institute de la Universidad de Oxford

El cielo estrellado sobre mí, la ley moral dentro de mi procesador.
La singularidad tecnológica podría llevarnos a una fantasía utópica oa una pesadilla distópica. Y este Bostrom lo sabe bien. Lleva décadas pensando en la aparición de una IA superinteligente y sabe bien los riesgos que conllevan tales creaciones.
Está la clásica pesadilla de ciencia ficción de una revolución robótica, por supuesto, donde las máquinas deciden que prefieren tener el control de la Tierra.
Aún más probable, sin embargo, es la posibilidad de que el código moral de una IA superinteligente, sea lo que sea, simplemente no se alinee con el nuestro.
Una IA a cargo de las flotas de automóviles autónomos o la distribución de suministros médicos podría causar estragos si dejara de valorar la vida humana como lo hacemos nosotros.
El problema de la alineación de la IA, como se le llama, ha adquirido una nueva urgencia en los últimos años, gracias en parte al trabajo de pensadores como Bostrom.

Singularidad tecnológica y divergencias de pensamiento
Si no podemos controlar la inteligencia artificial superinteligente, nuestro destino puede depender de si la futura inteligencia artificial piensa lo mismo que nosotros. En este frente, Bostrom nos recuerda que se están realizando esfuerzos para “diseñar la IA de tal manera que realmente elija cosas que sean beneficiosas para los humanos y opte por pedirnos aclaraciones cuando no esté claro a qué nos referimos. "
Hay formas en las que podemos enseñar la moral humana a una superinteligencia naciente. Se podría enseñar a los algoritmos de aprendizaje automático a reconocer el sistema de valores humanos, como hoy GAN se entrenan en una base de datos de imágenes y textos. O varias IA podrían discutir entre sí, bajo la supervisión de un moderador humano, para construir mejores modelos de preferencias humanas.
Una cuestión de respeto
Si la singularidad tecnológica fuera a crear ya no simples máquinas, sino verdaderas mentes pensantes artificiales, también deberíamos considerar el aspecto ético. Sería, dice Bostrom, una necesidad preguntarnos si es correcto influir en ellos y en qué medida.
En esta era de máquinas conscientes, en definitiva, la singularidad tecnológica podría imponer una nueva obligación moral al ser humano: tratar a los seres digitales con respeto.