Ayer, OpenAI se reunió con el garante italiano para la protección de datos personales, para abordar los problemas de privacidad que llevaron al bloqueo temporal de ChatGPT en Italia. El chatbot de inteligencia artificial fue bloqueado por la misma empresa estadounidense, como medida de precaución, luego de que los mensajes y la información de pago de unos usuarios fueran expuestos a otros en una (desastrosa) filtración de datos el 20 de marzo.
Esta es la primera vez que una democracia impone un bloqueo a una plataforma de IA de esta magnitud. Una operación en sí no sin controversia y sombras. De cualquier manera, OpenAI ha prometido proponer pasos para abordar las preocupaciones, aunque aún no se han detallado completamente. La noticia viene directamente en una nota en el mismo sitio web oficial de la autoridad italiana.
Hablemos
En la videollamada de ayer entre los comisionados del Garante y los directivos de OpenAI, incluido el CEO Sam Altman, hemos asistido al primer brillo real de toda esta historia que está manteniendo (no bromeo) en vilo a empresas y particulares (y el ratón sobre las VPN, cuyas suscripciones se disparan). Por su parte, la empresa de Altman se ha comprometido a idear medidas para abordar las preocupaciones. El Garante, por otro lado, destacó la importancia del cumplimiento de las estrictas normas de privacidad de los 27 países de la UE. En particular, cuestionó la base legal para recopilar cantidades masivas de datos utilizados para entrenar algoritmos. ChatGPT y expresó su preocupación de que el sistema podría generar información falsa sobre las personas.

La compensación del Garante
El verdadero punto de toda la historia, sin embargo, probable hijo de la fuerte fibrilación de varios sectores (y de muchos usuarios) fue la mano extendida por el Garante. Los Comisarios han expresado muy claramente su deseo de no obstaculizar el desarrollo de la IA en Italia. Y esto sólo puede impedir un resultado "feliz" de todo el asunto.
¿Que pasa ahora?
OpenAI dijo que está trabajando para eliminar la información personal de los datos de entrenamiento cuando sea posible, configurar sus modelos para rechazar solicitudes de información personal de individuos y actuar sobre solicitudes para eliminar información personal de sus sistemas. ¿Caso cerrado, entonces? No. En Italia, como se mencionó, la impresión es que habrá una reapertura del sistema. Sin embargo, de manera más general, las autoridades están "calentando los motores" para cerrar la brecha y tratar de regular el sector.

Otros reguladores en Europa y en otros lugares han comenzado a prestar más atención después de la acción de Italia. La Comisión de Protección de Datos de Irlanda dijo que estaba "en contacto con el Supervisor de Protección de Datos de Italia para comprender la base de sus acciones y coordinar con todas las autoridades de protección de datos de la UE en relación con este asunto". El regulador de privacidad de datos de Francia, CNIL, dijo haber iniciado una investigación tras recibir dos denuncias sobre ChatGPT. También el comisionado de privacidad de Canadá abrió una investigación en OpenAI. Y lo hizo tras recibir una denuncia sobre la supuesta "recolección, uso y divulgación de información personal sin consentimiento".
Por otro lado, el viaje de la IA apenas comienza, ¿verdad?