El advenimiento de la inteligencia artificial, una IA hostil y su dominio sobre la humanidad han sido un tema central de debate desde el siglo pasado.
Del libro de EM Forster "La máquina se detiene", de 1909 A la reciente serie de televisión "Westworld" de paso por la saga "Terminator", nuestro imaginario colectivo ya ha contemplado esta hipótesis. Y sintió que la llegada de la IA hostil sería una carnicería.
Además, este es un problema que podría seguir siendo hipotético durante un tiempo más. Los científicos e ingenieros están seriamente preocupados de que este "adelantamiento" entre la inteligencia humana y la artificial (que debería dar paso a la singularidad tecnológica temida por los transhumanistas) sea el mayor error humano.
Las tendencias actuales nos muestran una verdadera "carrera armamentista" para obtener esta tecnología, lo que daría una enorme ventaja competitiva. La verdadera pregunta es esta, en una inspección más cercana: ¿cómo detener esta carrera desenfrenada y con poco criterio? ¿Cómo permitir el desarrollo más armonioso de una IA que respete su "ética" y parámetros de seguridad?
Desarrollar una inteligencia súper artificial conlleva dos desafíos para que no te conviertas en una IA hostil.
Primer desafío: unidad de propósito. Esta IA necesita tener en la memoria (¿mente?) Los mismos objetivos que la humanidad. Sin él, la IA podría destruir "distraídamente" a la humanidad evaluándola como un oropel inútil o un obstáculo que hay que eliminar.
Segundo desafío: mutualidad. Es un problema político, se trata de garantizar que los beneficios de la IA no se destinen a una pequeña élite, lo que causa desigualdades sociales atemorizantes.
Con el modelo actual de "carrera armamentista", cualquier desarrollo de IA tiende a ignorar estos dos desafíos para hacerlo antes. Esto hace que el peligro de la aparición de una IA hostil sea realmente concreto.
Posibles soluciones
Se necesitan políticas nacionales que eviten la competencia desenfrenada, reduzcan el desorden de las empresas y entidades que desarrollan IA e impongan puestos de seguridad para aquellos que desean competir. Menos batalla y más reglas significa menos presión y más atención a la seguridad.
Sugerir iniciativas prácticas para evitar el advenimiento de una IA hostil es un estudio por los investigadores Wim Naudé y Nicola Dimitri. La imagen actual se describe con precisión, y comienza inmediatamente con una negación: curiosamente, ya hay pocos competidores, y esto no garantiza la seguridad.
Los grupos y entidades de EE. UU., China y Europa son pocos en número debido a los enormes costos de desarrollo de una IA, pero aún son hipercompetitivos.
Por esta razón, otras estrategias serían útiles para los estados nacionales.
Los Estados tienen el deber de "calmar" la batalla ofreciendo a tantos súbditos como sea posible órdenes que los obliguen. Más dinero, incluso mucho más para el desarrollo de la IA, pero bajo ciertas condiciones de seguridad.
También pueden ofrecer ayuda a quienes quieran desarrollar tecnologías de "contención" para el desarrollo de una IA, asumiendo que incluso los más inteligentes y hostiles pueden tener debilidades y no ser completamente invulnerables.
Además, se puede fomentar la cooperación cambiando los impuestos y los incentivos a favor de quienes deciden colaborar.
Bien común
Más allá de estas soluciones (que el estudio explica con más detalle) hay una suprema, que es arrebatar este campo a los particulares. Al igual que con la energía atómica u otras tecnologías y recursos que se consideran ventajosos y peligrosos para todos, la IA también debe considerarse un bien común y protegerse para que no tome el camino equivocado.
Nadie está seguro de nada en este momento. Se está debatiendo la posible naturaleza hostil de la IA. Para algunos científicos, nunca habrá una "rebelión" de la creación contra el creador. Para muchos otros habrá una fusión de hombres e IA, no seremos aniquilados sino mejorados.
En cualquier caso, nuestro planeta y la humanidad se beneficiarán enormemente de la IA, y los signos ya son visibles hoy.