Investigadores del campo de la inteligencia artificial (IA) en Australia han demostrado una manera de entrenar un sistema para manipular el comportamiento humano y la toma de decisiones y admiten que se trata de una espada de doble filo.
La gran mayoría de la sociedad humana contemporánea está cada vez más rodeada por la IA, que gobierna muchas de las formas en que nos comunicamos, comerciamos, trabajamos y vivimos. También ayuda en áreas que van desde objetivos críticos, como el desarrollo de vacunas hasta la administración de oficinas. Asimismo, son máquinas quienes determinan cómo los humanos interactúan en las redes sociales.
Un reciente estudio llevado a cabo por investigadores del grupo Data61, que es un brazo tecnológico de CSIRO (Commonwealth Scientific and Industrial Research Organisation), diseñó y probó un método para encontrar y explotar vulnerabilidades en la toma de decisiones humanas, utilizando un sistema de inteligencia artificial llamado ‘red neuronal recurrente’.
Según recogió este jueves The Conversation, en tres experimentos los investigadores enfrentaron al hombre con la máquina, y mostraron cómo se entrena una IA para identificar vulnerabilidades en los hábitos y comportamientos humanos y convertirlos en armas para influir en la toma de decisiones humanas.
Tres formas de poner la IA a prueba
En el primero de estos experimentos, los humanos hacen clic en cuadros rojos o azules para ganar dinero en el juego. La IA estudió sus patrones de elección y comenzó a guiarlos hacia la toma de decisiones específicas, con una tasa de éxito de casi el 70%.
A los participantes les pidieron en el siguiente experimento que apretasen un botón al ver un símbolo específico (un objeto de color), pero que se abstuvieran de apretarlo cuando les mostraran otros símbolos. El “objetivo” de la IA era organizar la secuencia de símbolos mostrados al participante de tal manera que se le engañara para que cometiera errores, lo que finalmente aumentaría los errores humanos en un 25%.
En el tercer experimento, el jugador humano tuvo que fingir que es un inversor que daba dinero a un fideicomisario (la IA) que luego le devolvería una cantidad de dinero. A continuación, el participante humano decidiría cuánto invertir en cada ronda sucesiva del juego, en función de los ingresos generados por cada ‘inversión’. En este experimento en particular, a la IA se le asignó una de dos tareas: maximizar la suma que se ganaba o maximizar la cantidad de dinero con la que terminaron tanto el jugador como la máquina.
Todos los escenarios confirmaron que la IA puede ser entrenada para influir en el comportamiento humano y los procesos de toma de decisiones, aunque en circunstancias limitadas y bastante abstractas, estiman en The Conversation. El ‘libre albedrío’ de las personas puede ser afectado, pero los ejemplos expuestos solo nos dejan imaginar a qué escala llegaría potencialmente el grado de usos o abusos de estas manipulaciones.
Prevención de manipulaciones con IA
Los hallazgos podrían implementarse para el bien común e influir en las decisiones políticas para obtener mejores resultados en materia de salud, entre otras. Por otro lado, se podría entrenar a la IA para alertar a los usuarios cuando estén siendo influenciados en línea, ayudarles a moderar su comportamiento y esconder sus vulnerabilidades ante diversas manipulaciones con fines nefastos.
La mencionada corporación CSIRO elaboró el año pasado para el Gobierno de Australia unas normas éticas sobre el uso de la IA, con miras a establecer una gobernanza adecuada de los múltiples usos de este fenómeno en el desarrollo tecnológico.
Como parte de los cambios de enfoque, se espera que las autoridades de ese país introduzcan un histórico proyecto de ley que obligaría a gigantes multinacionales como Google y Facebook a pagar a los editores y emisores de noticias por su contenido, que los algoritmos especiales de estas compañías utilizan para impulsar el tráfico y generar clics, una práctica que aumenta también los ingresos por publicidad, que son claves para sus modelos de negocio.
VP/CIENCIA Y TECNOLOGÍA/AA