Inteligencia Artificial: OCU exige medidas para reforzar la protección a los usuarios
Los consumidores juzgan positivo el desarrollo de la IA, pero desconfían de las empresas que las gestionan: dos de cada tres usuarios creen que pueden generarse abusos en el uso de sus datos personales.
Cada día son las más empresas que aprovechan el desarrollo de grandes bases de datos y ordenadores cada vez más potentes para impulsar todo tipo aplicaciones con Inteligencia Artificial (IA) dirigidas a los consumidores: asistentes personales como Siri o Alexa, herramientas de diagnóstico o, más recientemente, ChatGPT. Aplicaciones cada día más populares y en general bien valoradas por sus usuarios que, sin embargo, comparten una creciente preocupación por el uso de sus datos personales, advierte la Organización de Consumidores y Usuarios (OCU).
Según una reciente encuesta de OCU, el 65% de los usuarios de ChatGPT cree que pueden generarse abusos en el uso de sus datos personales. Es más, el 67% considera que el uso de la IA servirá a las empresas para manipular a los consumidores. Y lo peor es que solo 3 de cada 10 confía en que las autoridades de la Unión Europea o las nacionales lleven a cabo un eficaz control sobre los datos o las informaciones personales que recoge ChatGPT.
OCU coincide con la sensación de falta de protección de los usuarios: “Es imposible que un consumidor medio tenga conocimiento del alcance actual y futuro de su consentimiento para el uso de sus datos personales”. De ahí que la Organización exija a la Administración que supervise y controle de forma activa las complejas condiciones del consentimiento que se impone a los consumidores por las empresas que emplean algoritmos y sistemas de Inteligencia Artificial en su actividad. Dada la rápida evolución de la tecnología, basar en estos casos la legalidad del tratamiento en el consentimiento del consumidor ya no resulta del todo adecuado y debe respaldarse necesariamente con una supervisión y control previos que inspiren confianza y den garantías al usuario.
OCU urge además una regulación que obligue a todas las empresas que usen Inteligencia Artificial en sus relaciones con los consumidores a:
Priorizar el bienestar de los usuarios sobre la rentabilidad económica, primando principios éticos como el respeto, la honestidad o la equidad. Al tiempo que se mantiene el compromiso de salvaguarda de los Derechos Humanos.
Informar sobre los algoritmos que utilizan y el tratamiento que se va a dar a la información personal, de tal modo que no se discrimine por razones de género, raza, religión o nivel socioeconómico. Y distinguiendo los contenidos generados por la propia IA del resto.
No deben existir cajas negras donde no se pueda conocer el proceso seguido por la IA para llegar a una decisión, de forma que no se pueda defender a un consumidor de una decisión automatizada.
Remitir informes independientes a las autoridades de control, incluyendo los posibles riesgos a los que se enfrentan los usuarios y las medidas para reducirlos.
Asumir su responsabilidad, incluso penal, por la veracidad de la información que se transmite y por las acciones que violen las leyes y códigos establecidos; así como por los daños derivados del impacto negativo de sus actividades.
Limitar su impacto sobre el agua, la energía y otros recursos escasos, estos últimos a menudo procedentes de regiones con conflictos donde no se respetan los derechos humanos.