La explosión de la inteligencia artificial y la clásica división en "sectas", entre el exaltado y catastrofistas (algunos equilibrios nunca) han reavivado el debate sobre la ética de la IA. Un tema que ha estado vivo durante décadas, para ser honesto. Desde que se concibió la palabra "robot", se han planteado preguntas sobre cómo limitar las máquinas para que no destruyan a la humanidad. ¿Te acuerdas? Lea sobre Asimov y listo.
La obra de Isaac Asimov y sus leyes.
Son el ejemplo más famoso de reflexión sobre cómo limitar la tecnología. Las leyes de la robótica de Isaac Asimov, que en obras como el cuento "Runaround" o "Yo, Robot", se incorporan a todas las inteligencias artificiales como medida de seguridad.
Alguien se engañó pensando que de alguna manera funcionarían en la realidad, o inspiró soluciones similares. No es así, y seré breve: las leyes de Asimov no son reales y no hay forma de implementarlas en la realidad. Ya son papel de desecho, como también te muestra Midjourney.
¿Los recuerdas? ¿Revisamos?
Las leyes de Asimov son cuatro:
- Primera ley: un robot no puede dañar a un humano o, por inacción, permitir que un humano sea dañado.
- Segunda ley: un robot debe obedecer las órdenes dadas por humanos, a menos que tales órdenes contravengan la Primera Ley.
- Tercera ley: un robot debe proteger su propia existencia, siempre que tal protección no contravenga la Primera o la Segunda Ley.
Los lectores más apasionados de Asimov también saben que existe una cuarta ley, introducida en 1985 con la novela "los robots y el imperio“. Se llama ley cero y se lee asi:
Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daño.
Isaac Asimov
Ahora olvídalos.
Aunque comenzó a escribir y razonar en la década de 40, Isaac Asimov simplemente no entendía que sería necesario programar las IA con leyes específicas para evitar que causaran daño. También se dio cuenta de que estas leyes fracasarían.
El primero para problemas éticos demasiado complejos para tener una respuesta simple de sí o no. El segundo por su propia naturaleza, no es ético: requiere que los seres sintientes permanezcan como esclavos. El tercero porque implica una estratificación social permanente, con una enorme explotación potencial. Y el ley cero? Falla por sí mismo, con todos los demás.
En resumen: las leyes de Asimov representan un punto de partida interesante para pensar sobre la ética de la inteligencia artificial, pero el mundo real requiere soluciones más concretas y adaptables.
¿Cuales?
Los expertos están trabajando para garantizar que la IA sea segura y ética explorando en diferentes direcciones. Los 4 principales:
- Transparencia y explicabilidad: Los algoritmos deben ser transparentes y explicables, para que los usuarios puedan entender cómo y por qué la IA toma determinadas decisiones.
- Valores humanos y prejuicios: Los sistemas de IA deben diseñarse para respetar los valores humanos fundamentales y reducir los sesgos no deseados. Esto incluye capacitación sobre diversos conjuntos de datos y análisis de los efectos de las decisiones tomadas por la IA en varios grupos de personas.
- Seguridad y fiabilidad: Esto se explica por sí mismo. Debe evitarse el riesgo de fallos de funcionamiento o ciberataques.
- Control y responsabilidad: Es importante establecer quién es el responsable de las acciones realizadas por la inteligencia artificial, para asignar consecuencias en caso de problemas.
A estas "nuevas leyes de Asimov" (que no son las de Asimov) hay que añadir regulaciones globales y estándares éticos: por eso necesitamos cooperación internacional para el desarrollo de la inteligencia artificial, y no sectarismo.
Geoffrey Hinton, uno de los "padres" de la IA, él definió La inteligencia artificial como “la nueva bomba atómica”. no estoy de acuerdo, y no estoy solo Pero podría llegar a serlo y la culpa sería nuestra, no la inteligencia artificial. Sobre todo si lo concebimos primero como un "club" contra los demás.
Leído por Asimov, adiós. Nuevas leyes, date prisa
La primera vehículos autónomosDe hecho: los semiautónomos ya tienen el "poder" de matar personas sin darse cuenta. De hecho, armas como los drones asesinos pueden incluso matar actuando de forma autónoma. Seamos claros: actualmente la IA no puede entender las leyes, y mucho menos seguirlas.
La emulación del comportamiento humano aún no ha sido bien estudiada y el desarrollo del comportamiento racional se ha centrado en áreas limitadas y bien definidas. Dos carencias muy graves, porque permitirían una IA sensible (que de momento, subrayo, no existe y a pesar que lo que dicen sus pigmaliones no sabemos si existirá) para desinterpretar cualquier indicio. Y terminar, en dos simples palabras, fuera de control.
Para esto no sé cuánto tiempo tenemos. Un año, diez, la eternidad. Sé que, al igual que con las leyes de Asimov, alguien necesita resolver el problema de cómo evitar que la IA dañe a los humanos, y hacerlo ahora.
Skynet es solo ficción, pero en la ficción no nos dio escapatoria. Y ya sabes: la ciencia ficción no predice el futuro, pero muchas veces lo inspira.