En febrero pasado, OpenAI anunció que había desarrollado un algoritmo capaz de escribir spam completamente plausible y mensajes de noticias falsas.
En ese momento, la decisión del equipo fue no liberarlo porque se consideró demasiado peligroso. Para esto, OpenAI decidió iniciar un programa de estudio cauteloso al difundir solo partes del algoritmo para escribir noticias falsas y evaluar los efectos.
Hoy, el grupo afirma haber revisado su estimación de riesgo y no haber detectado fallas excesivas factibles. Para esto decidió lanzar al público el código completo del algoritmo "mentiroso".
La inteligencia artificial, llamada GPT-2, se diseñó originalmente para responder preguntas, traducir texto y clasificar contenido. Entonces, los investigadores entendieron (con no poca sorpresa) que el sistema también puede servir para poner una enorme cantidad de desinformación en la red.
¿Falsa alarma? Tal vez.
Afortunadamente, los usos realizados durante el período de monitoreo han sido mucho más moderados: el algoritmo se utilizó para estructuras narrativas y videojuegos textuales.
En la publicación oficial que anuncia la difusión pública del mecanismo, OpenAI espera que esto inteligencia artificial puede usarse para desarrollar modelos de reconocimiento de texto que permitan encontrar noticias falsas en la red. "Estamos implementando este modelo para ayudar a la investigación a encontrar texto sintético", leer en el sitio.
La idea de que exista una IA capaz de producir una masa gigantesca de fake news que no es fácil de negar es irritante, pero la historia apunta que esas tecnologías llegan, lo queramos o no.
Bueno, OpenAI habría hecho para compartir su trabajo de inmediato, para dar a los investigadores aún más tiempo y formas de identificar herramientas capaces de luchar, o al menos reconocer textos creados artificialmente. Más vale tarde que nunca, de todos modos.