Un equipo de la UPV trabaja en el desarrollo de una inteligencia artificial que integre los valores de las personas en la toma de decisiones
El desarrollo de este sistema de IA se enmarca en el proyecto HAIFEL, liderado por el instituto VRAIN de la UPV
“Es fundamental que estos sistemas basados en IA se adapten a las personas, nuestros valores y preferencias, para sacar el máximo partido de la IA y minimizar los riesgos asociados a su uso”, apuntan desde el Instituto VRAIN de la UPV
Un equipo del Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Politècnica de València (UPV) trabaja en la investigación de una inteligencia artificial (IA) que se adapte a las personas y sus valores, sus preferencias a la hora de tomar decisiones y que sea ética y explicable, es decir que explique por qué ha tomado esa decisión.
El proyecto HAIFEL (Human-centred Artificial Inteligence for Everyday Life) es un proyecto PROMETEO, financiado por la Generalitat Valenciana, que está liderado por el investigador de VRAIN y catedrático de la UPV, José Such, y la investigadora de VRAIN y catedrática de la UPV, Eva Onaindía, ambos investigadores principales del proyecto.
La Inteligencia Artificial (IA), “está cada vez más integrada en nuestra vida cotidiana, desde asistentes de IA hasta recomendaciones con sistemas de apoyo en la toma de decisiones, inteligentes y autónomos. Por lo que es fundamental que estos sistemas basados en IA se adapten a nosotros, las personas, nuestros valores y preferencias, para que podamos sacar el máximo partido de la IA y minimizar los riesgos asociados a su uso”, explica el investigador de VRAIN, José Such
Y añade que para ello, la IA “debe comportarse éticamente y respetar nuestra intimidad y razonar, aprender y adaptarse a nuestras preferencias y valores, además de explicar lo que hace y por qué de una manera en la que las personas lo podamos entender y actuar en consecuencia, independientemente de los conocimientos que tengamos en IA”.
La investigadora Eva Onaindía añade que “para abordar el diseño de sistemas de soporte a la decisión adaptados a las preferencias y valores humanos, es necesario explorar y combinar técnicas de IA capaces de simular la inteligencia y el comportamiento humano, que permitan emular el proceso de pensamiento humano. Solo de ese modo, se podrá construir un sistema de inteligencia artificial que las personas perciban alineado con valores humanos y principios éticos”.