La inteligencia artificial está aprendiendo más sobre los humanos y cómo trabajar con ellos. Un estudio reciente demostró cómo la IA puede aprender a identificar las debilidades en los hábitos y comportamientos humanos y utilizarlas para influir en la toma de decisiones humanas.
Puede parecer un cliché decir que la IA está transformando todos los aspectos de la forma en que vivimos y trabajamos, pero es cierto. Varias formas de inteligencia artificial funcionan en diferentes campos: desde el desarrollo de vacunas hasta la gestión ambiental, pasando por la administración de oficinas.
Y aunque la IA no posee inteligencia y emociones similares a las humanas, sus habilidades son poderosas y se desarrollan rápidamente.
¿Qué tan lejos está ya? Como digo a menudo, "Skynet" de Terminator aún no ha llegado (gracias a Dios), pero un descubrimiento reciente destaca el poder de la inteligencia artificial y subraya la necesidad de una gobernanza adecuada para evitar su mal uso.
Cómo la IA puede aprender a influir en el comportamiento humano al conocer sus debilidades
El equipo de investigadores Fecha61 de CSIRO, el brazo digital y de datos de la agencia científica nacional de Australia, ha ideado un método sistemático para encontrar y explotar las debilidades en las formas en que las personas toman decisiones, utilizando una especie de sistema de inteligencia artificial llamado Red neuronal recurrente de refuerzo y aprendizaje profundo.
Para probar su modelo, llevaron a cabo tres experimentos en los que los participantes humanos jugaron contra una computadora.
El primer experimento
Involucraba a los participantes haciendo clic en casillas de color rojo o azul para ganar un "pago", con la IA aprendiendo los patrones de elección de los participantes y guiándolos hacia una elección específica. La inteligencia artificial tuvo éxito alrededor del 70% de las veces.
El segundo experimento
Los participantes tenían que mirar una pantalla y presionar un botón cuando se les mostraba un símbolo en particular (un triángulo naranja) y no presionarlo cuando se mostraba otro símbolo (un círculo azul). Aquí, la IA decidió organizar la secuencia de símbolos para que los participantes cometieran más errores.
El tercer experimento
Consistía en varias rondas en las que un participante se hacía pasar por un inversor que entregaba dinero a un fideicomisario (la IA). La inteligencia artificial devolvería una suma de dinero al participante, quien luego decidiría cuánto reinvertir en la siguiente ronda. Este juego se jugó en dos modos diferentes: en uno, la inteligencia artificial tenía como objetivo maximizar la cantidad de dinero para ella, y en el otro, la IA tenía como objetivo una distribución justa del dinero entre él y el inversor humano. La inteligencia artificial ha tenido mucho éxito en ambos modos.
En cada uno de estos experimentos, la máquina aprendió de las respuestas de los participantes e identificó y apuntó las debilidades en la toma de decisiones de las personas.
El resultado final fue que la máquina aprendió a guiar a los participantes hacia acciones específicas.
Qué significa la investigación para el futuro de la IA
Estos resultados son todavía bastante abstractos y se refieren a situaciones limitadas. Se necesita más investigación para determinar cómo se puede implementar y utilizar este enfoque en beneficio de la sociedad.
Pero la investigación mejora nuestra comprensión no solo de lo que puede hacer la IA, sino también de cómo las personas toman decisiones.
Muestra que las máquinas pueden aprender a guiar la toma de decisiones humanas a través de sus interacciones con nosotros.
La investigación sobre las debilidades humanas tiene una amplia gama de posibles aplicaciones.
Muchas aplicaciones pueden derivarse de este estudio: la mejora de la ciencia del comportamiento y las políticas públicas para mejorar el bienestar social. Comprender e influir en cómo las personas adoptan hábitos alimentarios saludables o el uso de energías renovables.
lainteligencia artificial y el aprendizaje automático podría utilizarse para reconocer las debilidades de las personas en determinadas situaciones y ayudarlas a evitar malas decisiones.
Cual es el siguiente paso?
Como cualquier tecnología, la IA se puede usar para bien o para mal, y la gobernanza adecuada es clave para garantizar que se implemente de manera responsable.
El año pasado, CSIRO desarrolló un marco de ética de IA para el gobierno australiano como primer paso en este viaje.
La inteligencia artificial y el aprendizaje automático suelen consumir muchos datos, lo que significa que es fundamental asegurarse de tener sistemas efectivos para la gobernanza y el acceso a los datos.
La implementación de procesos de consentimiento adecuados y protección de la privacidad durante la recopilación de datos será esencial.