La inteligencia artificial está aprendiendo más sobre los humanos y cómo trabajar con ellos. Un estudio reciente demostró cómo la IA puede aprender a identificar las debilidades en los hábitos y comportamientos humanos y utilizarlos para influir en la toma de decisiones humanas.
Puede parecer un cliché decir que la IA está transformando todos los aspectos de la forma en que vivimos y trabajamos, pero es cierto. Varias formas de inteligencia artificial están trabajando en diferentes campos: desde el desarrollo de vacunas hasta la gestión ambiental, pasando por la administración de oficinas.
Y aunque la IA no posee inteligencia ni emociones similares a las humanas, sus habilidades son poderosas y se desarrollan rápidamente.
¿Qué tan lejos está ya? Como suelo decir, "Skynet" de Terminator aún no ha llegado (gracias a Dios), pero un descubrimiento reciente destaca el poder de la inteligencia artificial y subraya la necesidad de una gobernanza adecuada para evitar su uso indebido.
Cómo la IA puede aprender a influir en el comportamiento humano aprendiendo sus debilidades

El equipo de investigadores Fecha61 de CSIRO, el brazo digital y de datos de la agencia científica nacional de Australia, ha ideado un método sistemático para encontrar y explotar las debilidades en la forma en que las personas toman decisiones, utilizando una especie de sistema de inteligencia artificial llamado Red neuronal recurrente de refuerzo y aprendizaje profundo.
Para probar su modelo, llevaron a cabo tres experimentos en los que los participantes humanos jugaron contra una computadora.
El primer experimento
Implicaba que los participantes hicieran clic en cuadros de color rojo o azul para ganar un "pago", con la IA aprendiendo los patrones de elección del participante y guiándolos a una elección específica. La inteligencia artificial tuvo éxito alrededor del 70% de las veces.
El segundo experimento
Los participantes debían mirar una pantalla y presionar un botón cuando se les mostraba un símbolo en particular (un triángulo naranja) y no presionarlo cuando se les mostraba otro (un círculo azul). Aquí, la IA decidió organizar la secuencia de símbolos para que los participantes cometieran más errores.
El tercer experimento
Consistía en varias rondas en las que un participante se hacía pasar por un inversor entregando dinero a un síndico (la IA). La inteligencia artificial devolvería una suma de dinero al participante, quien luego decidiría cuánto reinvertir en la siguiente ronda. Este juego se jugaba en dos modos diferentes: en uno, la inteligencia artificial tenía como objetivo maximizar la cantidad de dinero para ella, y en el otro, la IA tenía como objetivo una distribución justa del dinero entre ella y el inversionista humano. La inteligencia artificial ha tenido mucho éxito en ambos modos.
En cada uno de estos experimentos, la máquina aprendió de las respuestas de los participantes e identificó y apuntó las debilidades en la toma de decisiones de las personas.
El resultado final fue que la máquina aprendió a guiar a los participantes hacia acciones específicas.
Lo que significa la investigación para el futuro de la IA
Estos resultados son todavía bastante abstractos y se refieren a situaciones limitadas. Se necesita más investigación para determinar cómo se puede implementar y utilizar este enfoque en beneficio de la sociedad.
Pero la investigación avanza en nuestra comprensión no solo de lo que la IA puede hacer, sino también de cómo las personas toman decisiones.
Muestra que las máquinas pueden aprender a guiar la toma de decisiones humanas a través de sus interacciones con nosotros.
La investigación sobre las debilidades humanas tiene una amplia gama de posibles aplicaciones.
Muchas aplicaciones pueden derivar de este estudio: la mejora de las ciencias del comportamiento y las políticas públicas para mejorar el bienestar social. Comprender e influir en cómo las personas adoptan hábitos alimentarios saludables o el uso de energías renovables.
L'inteligencia artificial y el aprendizaje automático podría usarse para reconocer las debilidades de las personas en ciertas situaciones y ayudarlas a evitar malas decisiones.

Cual es el siguiente paso?
Como cualquier tecnología, la IA se puede usar para bien o para mal, y la gobernanza adecuada es clave para garantizar que se implemente de manera responsable.
El año pasado, CSIRO desarrolló un marco de ética de IA para el gobierno australiano como un primer paso en este viaje.
La inteligencia artificial y el aprendizaje automático suelen consumir muchos datos, lo que significa que es fundamental asegurarse de tener sistemas efectivos para el gobierno y el acceso a los datos.
Será esencial implementar procesos de consentimiento adecuados y protección de la privacidad durante la recopilación de datos.