A pesar de un mundo cada vez más fascinado (e un poco obsesionado) de los avances en inteligencia artificial, Edward Snowden lanza una advertencia que parece ir contra la corriente. El excontratista de la CIA, conocido por sus revelaciones sobre prácticas de vigilancia masiva, desvía la atención de los modelos de IA "expresivos" hacia una amenaza mucho más tangible e inmediata: drones asesinos y robots de combate.
La distracción de los chatbots de IA
El incidente de Google Gemini, donde el chatbot de IA mostró limitaciones para generar imágenes relevantes o incluso se negó a generarlas, desató un animado debate. Incluso hoy, Elon Musk, en su red social, lanza invectivas contra la tecnología de Google, que es "culpable" de propagar teorías del despertar y de desconcertar la historia reproduciendo a un George Washington negro.
Para Snowden, estas controversias son pura tontería: una distracción de los peligros reales. Critica abiertamente la actitud de quienes, atrapados en el frenesí de "sabotear" los chatbots de IA con filtros de seguridad, pierden de vista amenazas mucho más concretas a la seguridad global. Amenazas que quizás contribuya a crear, dado que esas mismas organizaciones (pese a su manifiesta ética) también están abiertos a entidades militares.
Snowden: establezca bien sus prioridades
Según Snowden, existe una grave desconexión con la realidad cuando se piensa en las prioridades de la sociedad moderna. Si bien una parte importante de la opinión pública y de los expertos se centra en los límites y peligros de la IA, tecnologías mucho más peligrosas, como los drones armados y los robots militares, ya son una realidad.
Estos últimos, a diferencia de los chatbots "conversacionales", ya tienen el poder de matar. De lo contrario: ya han matado, ya se han utilizado en varios conflictos y plantean cuestiones éticas y jurídicas mucho más graves. ¿Y en qué nos estamos centrando?
La ironía de la “protección” de la IA.
El debate sobre la IA está obsoleto, afirma Snowden. Atascado en el choque entre la libertad de expresión y la necesidad de regular contenidos potencialmente dañinos. Sin embargo, Snowden bromea acerca de cómo esta “protección” está paradójicamente dirigida a limitar las capacidades de la IA, en lugar de expandirlas de manera segura.
La situacion de Google Géminis Se cita como ejemplo emblemático de esta contradicción.
¿Se considera la gestión de chatbots de IA una amenaza a la libertad de expresión o a la seguridad de los datos? El uso de drones militares es una amenaza mucho más directa a la vida humana: y es esencial reorientar el debate público y político hacia estas tecnologías letales.
Spoiler: Snowden es adecuado para mí
El discurso de Snowden (si quieres saber más al respecto, puedes encontrarlo aquí) abre una ventana a una realidad que a menudo se pasa por alto en el fragor del debate sobre la IA. Su crítica no se limita a la tecnología en sí, sino que se extiende a la sociedad y sus prioridades. En un tono que oscila entre lo irónico y lo serio, nos invita a reflexionar sobre lo que realmente deberíamos temer y contra lo que realmente deberíamos luchar.
Snowden nos recuerda que existen desafíos y peligros aún más apremiantes que requieren nuestra atención inmediata. Peligros con impacto directo en la vida y la muerte, que merecen un lugar destacado en el debate global sobre tecnología y seguridad. Digamos que esta vez, más de 10 años después desde ese tiempo¿Lo escuchamos un poco más?