La IA ya puede aprender a manipular el comportamiento humano Por Jon Whittle

La IA ya puede aprender a manipular el comportamiento humano

Por Jon Whittle

(Traducido de The Conversation)

Articulo original en: https://theconversation.com/ai-can-now-learn-to-manipulate-human-behaviour-155031

 

La IA ya puede aprender a manipular el comportamiento humano

 

La inteligencia artificial (IA) está aprendiendo más sobre cómo trabajar con (y sobre) los humanos. Un estudio reciente ha demostrado que la IA puede aprender a identificar los puntos débiles de los hábitos y comportamientos humanos y utilizarlos para influir en la toma de decisiones.

 

Puede parecer un mito decir que la IA está transformando todos los aspectos de nuestra vida y nuestro trabajo, pero es cierto. Varias formas de IA están en funcionamiento en campos tan diversos como el desarrollo de vacunas, la gestión medioambiental y la administración de oficinas. Y aunque la IA no posee inteligencia y emociones similares a las del ser humano, sus capacidades son potentes y se desarrollan rápidamente.

 

Todavía no hay que preocuparse por la automatización por parte de las máquinas, pero este reciente descubrimiento pone de manifiesto el poder de la IA y subraya la necesidad de una gobernanza adecuada para evitar su uso indebido.

 

Cómo la IA puede aprender a influir en el comportamiento humano

 

Un equipo de investigadores del CSIRO’s Data61, el brazo digital y de datos de la agencia nacional de ciencia de Australia, ideó un método sistemático para encontrar y explotar las vulnerabilidades en la forma en que las personas toman decisiones, utilizando un tipo de sistema de IA llamado red neuronal recurrente y aprendizaje profundo de refuerzo. Para probar su modelo, llevaron a cabo tres experimentos en los que participantes humanos jugaban contra un ordenador.

 

El primer experimento consistió en que los participantes hicieran clic en casillas de color rojo o azul para ganar una moneda falsa, y la IA aprendió los patrones de elección de los participantes y los guió hacia una opción específica. La IA tuvo éxito un 70% de las veces.

 

En el segundo experimento, los participantes debían observar una pantalla y pulsar un botón cuando se les mostraba un símbolo concreto (como un triángulo naranja) y no pulsarlo cuando se les mostraba otro (por ejemplo, un círculo azul). Aquí, la IA se propuso organizar la secuencia de símbolos para que los participantes cometieran más errores, y logró un aumento de casi el 25%.

 

El tercer experimento consistió en varias rondas en las que un participante fingía ser un inversor que daba dinero a un administrador (la IA). La IA devolvía una cantidad de dinero al participante y decidía cuánto invertir en la siguiente ronda. Este juego se jugó en dos modalidades diferentes: en una, la IA buscaba maximizar la cantidad de dinero que acababa teniendo, y en la otra, la IA buscaba una distribución justa del dinero entre ella misma y el inversor humano. La IA tuvo mucho éxito en cada modalidad.

 

En cada uno de los experimentos, la máquina aprendió de las respuestas de los participantes e identificó y apuntó a las vulnerabilidades en la toma de decisiones de las personas. El resultado final fue que la máquina aprendió a dirigir a los participantes hacia determinadas acciones.

 

Qué significa la investigación para el futuro de la IA

 

Estos resultados son todavía bastante abstractos y se refieren a situaciones limitadas y poco realistas. Hay que seguir investigando para determinar cómo se puede poner en práctica este enfoque y utilizarlo en beneficio de la sociedad.

 

Pero la investigación hace avanzar nuestra comprensión no sólo de lo que la IA puede hacer, sino también de cómo las personas toman decisiones. Demuestra que las máquinas pueden aprender a dirigir la toma de decisiones de los humanos a través de sus interacciones con nosotros.

 

La investigación tiene un enorme abanico de posibles aplicaciones, desde mejorar las ciencias del comportamiento y las políticas públicas para mejorar el bienestar social, hasta comprender e influir en la adopción de hábitos alimentarios saludables o de energías renovables por parte de las personas. La IA y el aprendizaje automático podrían utilizarse para reconocer las vulnerabilidades de las personas en determinadas situaciones y ayudarlas a evitar las malas elecciones.

 

El método también puede utilizarse para defenderse de los ataques de influencia. Se podría enseñar a las máquinas a alertarnos cuando estamos siendo influenciados en línea, por ejemplo, y ayudarnos a configurar un comportamiento para disimular nuestra vulnerabilidad (por ejemplo, no haciendo clic en algunas páginas, o haciendo clic en otras para dejar una pista falsa).

 

¿Qué será lo siguiente?

 

Como cualquier tecnología, la IA puede utilizarse para bien o para mal, y una gobernanza adecuada es crucial para garantizar que se aplique de forma responsable. El año pasado, el CSIRO elaboró un marco de ética de la IA para el gobierno australiano como un primer paso en este camino.

 

La IA y el aprendizaje automático suelen utilizar gran cantidad de datos, lo que significa que es crucial asegurarse de que contamos con sistemas eficaces para la gobernanza y el acceso a los datos. Es esencial aplicar procesos adecuados de consentimiento y protección de la privacidad cuando se recopilan datos.

 

Las organizaciones que utilizan y desarrollan la IA deben asegurarse de que saben lo que estas tecnologías pueden y no pueden hacer, y ser conscientes de los riesgos potenciales, así como de los beneficios.