Los temores sobre el crecimiento exponencial de los sistemas de inteligencia artificial están alcanzando rápidamente un punto álgido, hasta el punto de que un experto de la industria cree que la única forma de detenerlo es bombardear los centros de datos. Esta es la impactante propuesta de Eliezer Yudkowski, investigador en el campo del aprendizaje automático, en una editorial para la revista Time.
¿Quién es Eliezer Yudkowsky?
Yudkowsky lleva más de dos décadas estudiando la Inteligencia General Artificial (AGI) y advirtiendo sobre sus posibles consecuencias desastrosas. Por eso va mucho más allá de la alarma dada por personas como Elon MuskSteve Wozniak e Andrew Yang en la carta abierta del Instituto Futuro de la Vida, que exige una pausa de seis meses en el desarrollo de la IA. Yudkowsky sostiene que esto no es suficiente.
El experto afirma que la única manera de evitar una catástrofe es bloquear radicalmente la IA. ¿Tu idea? “Apague todos los grandes clústeres de GPU (las granjas de computadoras donde inteligencias artificiales más potente) e imponer un límite a la potencia informática que se puede utilizar para entrenar la IA, reduciéndola con el tiempo. No hay excepciones, ni siquiera para los gobiernos y entidades militares".
¿Qué pasaría si alguien rompiera estas reglas? Yudkowsky no tiene dudas: "Prepárense para destruir un centro de datos rebelde con un ataque aéreo".
¿Miedos fundados o psicosis?
El tono de las preocupaciones de Yudkowsky me desconcierta: por mucho que esté de acuerdo en que se necesita ética y atención en la dirección de estas tecnologías, las encuentro histéricas.
El experto Yudkowsky dice que teme que su hija Nina no sobreviva hasta la edad adulta si se siguen desarrollando IA cada vez más inteligentes.
Por ello invita a todos aquellos que comparten estas preocupaciones a adoptar una posición firme, porque de lo contrario sus hijos también podrían correr peligro.
“Todos moriremos”
"El resultado más probable de construir una inteligencia artificial sobrehumana, en cualquier situación remotamente similar a las actuales, es que literalmente todos en la Tierra morirán".
No tengo ninguna dificultad en definirlo como un catastrofista. Por supuesto, si alguien que realmente ha dedicado su vida a estudiar los peligros del futuro distópico de la IA dice que nos estamos acercando a lo que advirtió, valdría la pena escuchar su opinión.
Sin embargo, no debemos caer en el rechazo. Debemos apoyar el progreso: como se mencionó, la ética y la atención. Sin miedo y sobre todo sin oscurantismo.