La semana pasada tratamos el tema del pánico inteligencia artificial inducida por los medios. Una forma como cualquier otra, decía, de negar un sano debate sobre las oportunidades y riesgos de esta tecnología que puede cambiar por completo nuestra sociedad. Obviamente también está el inconveniente: un grupo muy numeroso de científicos a los que no les importan lo más mínimo los posibles peligros. ¿Bien o mal?
Porque algunas personas hacen la vista gorda
"¿Habías pensado alguna vez que la inteligencia artificial podría provocar el fin de la humanidad?". En una reciente conferencia de prensa en la Casa Blanca, la vocera Karine Jean-Pierre Él rió ante esta pregunta. Lástima que la respuesta sea un serio "no". A pesar de los pioneros de la IA como Alan Turing Ya había advertido de los riesgos de que "las máquinas se hicieran cargo", a muchos investigadores actuales parece no importarles en absoluto. Y, sin embargo, la IA está progresando a un ritmo increíble. Entonces, ¿por qué no lo discuten más?

david krueger, profesor del Departamento de Ingeniería de la Universidad de Cambridge, sostiene que las razones son sobre todo culturales e históricas. Después de varias fases en las que se depositaron expectativas excesivas e idealistas (utopía o distopía) sobre estas tecnologías, los investigadores decidieron pasar a la práctica. Para ello, se han centrado en áreas específicas, como la conducción autónoma, sin hacer preguntas sobre las implicaciones a largo plazo.
¿Lo hicieron bien o mal? ¿Y si los riesgos fueran reales?
Un argumento básico de las "preocupaciones" (una categoría muy diferente a la de los "apocalipsis", claro está) es la analogía entre la IA y los humanos. Así como los humanos acabaron con otras especies para competir por los recursos, la inteligencia artificial podría hacer lo mismo por nosotros. Podría reemplazarnos, en otras palabras. Económica y políticamente. Físicamente.
Son temas que suenan descomunales, casi de ciencia ficción. Y, de hecho, los riesgos de la IA a menudo se ignoran precisamente porque se consideran "no científicos". Sin embargo, eso no excusa la falta de atención. Por el contrario, debemos abordar estos temas como lo hacemos con otros temas sociales complejos. Y aquí es donde entra en juego un elemento crucial: la financiación. La mayoría de los investigadores de IA reciben financiación de gigantes tecnológicos, lo que crea posibles conflictos de intereses que pueden influir en la forma en que los expertos abordan los problemas relacionados con la IA, lo que conduce a una negación de los riesgos en lugar de una evaluación objetiva de las posibles amenazas.
Por eso, en lugar de "inclinarse" hacia uno de los dos polos, en el ejercicio que más les gusta a quienes dirigen las finanzas y los medios de comunicación (divide y vencerás), la opinión pública debería mirar hacia adelante, más bien hacia adentro. Dentro de las cosas, exigiendo que se profundice el tema.
es hora de ponerse serio
Los riesgos existenciales de la IA pueden ser más especulativos que reales con respecto a cuestiones apremiantes como el sesgo y las noticias falsas, pero la solución básica es la misma: la regulación. Es hora de iniciar un debate público sólido y abordar los problemas éticos relacionados con la IA. Todo lo demás es aburrimiento, de hecho, monotonía.
Porque sabemos: no podemos darnos el lujo de ignorar los riesgos potenciales de la inteligencia artificial para la humanidad. El debate público abierto y honesto es esencial, teniendo en cuenta los conflictos de interés y las responsabilidades éticas. Solo así podremos entender si la risa de una portavoz de la Casa Blanca es realmente adecuada o, por el contrario, una señal de peligrosa (sí) inconsciencia colectiva.