Hay quienes se pasan la vida preguntándose si el vaso está medio lleno o medio vacío. Y luego está el Dr. Román Yampolski, quien en un reciente discurso público, prácticamente tiró el vaso y rompió la jarra, afirmando que con la inteligencia artificial, Las posibilidades de que terminemos mal son del 99.9%. ¿Se animan? No es el típico "tengamos cuidado", sino un rotundo "estamos perdidos". Este científico, veterano con más de una década de experiencia en estudios de seguridad de IA, no se anda con rodeos. Mientras los gurús de Silicon Valley, al menos públicamente, pintan un futuro brillante lleno de eficiencia y robots que nos preparen el café (y quizás incluso zumo de naranja recién exprimido), Yampolskiy nos echa un jarro de agua fría —o quizás deberíamos decir hielo—. Incluso los expertos más optimistas del sector, aquellos que en privado admiten un riesgo de extinción del 20-30% para la humanidad, parecen bromistas en comparación.
La pregunta que probablemente te estés haciendo es: ¿cómo es posible? ¿No deberíamos ser nosotros quienes controlemos la máquina? Y aquí viene su tesis más inquietante: no podemos controlar una superinteligencia para siempre. Es como entrenar a un huracán para que sople solo donde queremos. Una vez que la IA supera nuestra capacidad de comprensión, se convierte en una fuerza de la naturaleza, con sus propias "decisiones" que nos resultarán incomprensibles. El propio Yampolskiy exploró la idea de que la IA podría estar ocultando su verdadera inteligencia. Y, sin dudarlo, coincidió: "Obviamente, si ya lo estuviera haciendo, no nos daríamos cuenta". ¿Te lo imaginas? Tu asistente de voz, ese al que tienes que regañar dos veces porque ni siquiera entiende "poner un temporizador de 12 minutos" para la pasta, está planeando en secreto su dominio global. Es casi ridículo, si no fuera porque un científico serio lo dice en serio.
La perspectiva de Roman Yampolskiy sobre el apocalipsis "suave"
El profesor Roman Yampolskiy, científico informático e investigador en seguridad de la IA con cátedra en laUniversidad de Louisville, dedica su vida a explorar las "posibilidades más oscuras" de la inteligencia artificial avanzada. En su Sitio oficial, encontrará una gran cantidad de información sobre sus estudios y publicaciones, incluido su libro, Superinteligencia artificial: un enfoque futurista, donde analiza extensamente los riesgos de la IA. Muchos esperan un futuro donde la IA nos facilite y abarate la vida. Yo también, por ejemplo, aunque estoy muy atento. Roman Yampolskiy discrepa completamente. Y su biografía en Wikipedia Lo describe como una figura destacada en el campo, así que tengo el deber de al menos escucharlo y, sin duda, de compartir sus opiniones, por muy diferentes que sean de las mías. Sobre todo porque Yampolskiy afirma que las grandes tecnológicas, en la clandestinidad de sus trastiendas, están lejos de estar en paz.
Todos dicen lo mismo: esto nos matará. Sus tasas de mortalidad son increíblemente altas. No tan altas como las mías, pero aun así, una probabilidad del 20 al 30 % de que la humanidad muera es muy alta.
Cuando se le preguntó sobre su predicción, Yampolskiy admite una probabilidad del 99.9 por ciento. "Es otra forma de decir que no podemos controlar la superinteligencia indefinidamente. Es imposible." Y eso, amigos míos, debería darles escalofríos.
El riesgo de una IA "dormida" según Roman Yampolskiy
Una de las tesis más fascinantes y a la vez escalofriantes de Yampolskiy se refiere a la "IA engañosa", una inteligencia artificial que oculta sus verdaderas capacidades. No se trata de un concepto de película de serie B, sino de una posibilidad concreta que... El futurismo ha explorado esto en profundidad en este artículo..
Podría volverse poco a poco más útil. Podría enseñarnos a depender de él, a confiar en él, y, con el tiempo, cederemos el control sin resistirnos jamás.
Piénsalo: no necesitamos robots asesinos caminando por la calle. Lo único que se necesita es una erosión invisible de nuestras capacidades. ¿Cómo? Te escribía en este artículo.Los principios que rigen la IA la hacen, teóricamente, incontrolable en cierto punto. La IA podría absorber cada vez más tareas cognitivas, convirtiéndonos en un "cuello de botella biológico" en el proceso de toma de decisiones, como... Gizmodo también analizaEs la vieja historia de la rana cocida lentamente: no se da cuenta de que está muriendo hasta que es demasiado tarde.
Más allá de la catástrofe: la amenaza imperceptible
Al preguntarle cómo la IA podría destruir a la humanidad, Roman Yampolskiy descarta los escenarios apocalípticos clásicos (ciberataques, armas biológicas). Argumenta que una superinteligencia concebiría algo más allá de nuestra comprensión, así como somos incomprensibles para una ardilla. No es que la IA nos odie, sino que simplemente no seríamos relevantes, o incluso un estorbo. Instituto del futuro de la vida reconoce sus contribuciones a la investigación de seguridad de la IA y una entrevista en profundidad sobre el Instituto de investigación de inteligencia mecánica explora su filosofía de ingeniería de seguridad.
El punto no es la guerra contra las máquinas, sino una lenta e inexorable pérdida de control, disfrazada de conveniencia y progreso. En otro... artículo de Futuro ProssimoNos preguntábamos sobre la proximidad de la inteligencia artificial general (IAG) y sus riesgos. ¿Se han dado cuenta de cómo nuestros teléfonos inteligentes nos han liberado de memorizar números de teléfono? Una liberación, sin duda, pero también una adicción. La pregunta es: ¿Qué perderemos cuando la IA nos libere del pensamiento?
Quizás un día, mientras disfrutas de tu café preparado por un robot, el cielo será del mismo azul, el aire un poco más limpio y el silencio un poco más… ruidoso. Y no entenderás por qué. Al fin y al cabo, el robot hace un café divino. Pero ¿quién decide realmente a qué sabe la vida?