Luis Echarte: “Si la legislación no lo impide, dentro de poco habrá robots que nos robarán el corazón”
El profesor de la Universidad de Navarra, filósofo y médico, analiza los peligros y oportunidades de la inteligencia artificial, tanto en el ámbito sanitario como en el social y el personal
El Observatorio de Bioética de la Universidad Católica de Valencia (UCV) ha celebrado el congreso Autonomía y libertad: Límites Bioéticos, enmarcado en los cursos de verano de la UCV. En este encuentro, expertos procedentes de diferentes universidades españolas han realizado un análisis de los conflictos bioéticos actuales derivados de la aplicación del principio de autonomía del paciente.
En una de las mesas redondas del congreso ha participado el filósofo y médico Luis Echarte, profesor de la Universidad de Navarra (UNAV) especializado en filosofía de la tecnología y psicología moral, además de miembro del Comité de Ética de la Investigación de la misma universidad. En su intervención, Echarte ha girado el foco que apuntaba en la mayoría de ponencias hacia la autonomía del paciente para ponérselo a los facultativos. En concreto, este experto ha hecho un análisis sobre cómo la inteligencia artificial (IA) puede cambiar la comprensión del concepto de autonomía en la toma de decisiones médicas.
Igualmente, ha advertido del peligro de los carerobots o robots emocionales, que funcionan ya en Japón desde hace un año en las casas particulares de personas mayores. "Si la legislación no lo impide, dentro de poco habrá robots que nos robarán el corazón. La inteligencia artificial no siente nada por ti, igual que el ordenador que te gana al ajedrez no siente alegría por ello. Los seres humanos también simulamos, como cuando alguien se casa con otra persona por su dinero, pero la cuestión es que las máquinas solo pueden simular amor, no replicarlo. Los robots emocionales son un engaño; por ello, pensar que un software puede tener el mismo corazón es muy grave. Las emociones son la última frontera antes de acabar reconociendo a las máquinas su «humanidad»”, ha asegurado.
Así, ha incidido en la necesidad de distinguir entre máquinas y personas, para lo cual es clave tener la noción de persona clara: “El ser humano entiende qué es la belleza, del mismo modo que entiende qué es la verdad, el bien y la unidad, los cuatro trascendentales del ser. Un niño de cinco años ya sabe lo que es la verdad, pero un robot es incapaz de entenderlo. Llega a conocimientos objetivos, predicciones, pero no a una deducción o una reflexión, que es lo que está al principio del conocimiento”.
Este experto ha explicado que “existen muchas cosas que distinguen el pensamiento de las personas del de los animales, y una de ellas es nuestra capacidad de aprendizaje. Las abejas que describía Aristóteles se comportan ahora de una manera similar a la de hace más de dos milenios. Por su parte, el ser humano, conservando ciertas similitudes que caracterizan a la naturaleza humana, ha cambiado mucho porque aprende y transmite sus conocimientos, hace cultura; los hombres y las mujeres de hoy nos parecemos menos a los de hace ocho siglos que a los de hace dos”.
En este sentido, la IA “es un tipo de software que trata precisamente de imitar esa capacidad de aprendizaje, el pensamiento característico de los seres humanos. La simulación que se ha conseguido ya es realmente sorprendente. La IA no solo cumple con las órdenes que le daríamos a cualquier máquina, como una lavadora a la que ordenamos centrifugar, sino que, a medida que va ejerciendo sus funciones y cumpliendo con sus objetivos, es capaz de decir ‘esto se puede hacer mejor’. Y lo consigue”, ha asegurado.
El caso de LaMDA
Que estas máquinas manifiesten un comportamiento similar al de los seres humanos supone, en opinión de Echarte, dos problemas importantes. Uno de ellos es pensar que van a ser como las personas, por lo que no solamente habría que reconocerles derechos, sino también deberes: “Es algo que ya está pasando, como se ha visto en el caso de LaMDA, un software de inteligencia artificial desarrollado en los laboratorios de Google. Hace unos meses, uno de los investigadores que trabaja en el proyecto aseguró que LaMDA había adquirido conciencia humana y que, por tanto, debía ser tratado como una persona. Google lo suspendió enseguida de empleo y sueldo”.
Lo más interesante del tema es que LaMDA, “además de manifestar su miedo a la muerte, ha solicitado la asistencia jurídica de un abogado que le defienda ante quienes quieran apagarla o utilizarla con fines perversos. En menos de una hora había ya una legión de abogados dispuestos a defenderla”.
“Cuando lees las conversaciones que ha tenido LaMDA con los ingenieros designados por Google para descubrir si detrás de esta inteligencia artificial hay ya una psique, sus respuestas son sorprendentes. No habla como una máquina, como lo haría la expendedora de gasolina de una estación de servicio. Las conversaciones son, cuanto menos, perturbadoras. Como esta cuestión va a ir a más, la percepción que la IA va a ir generando en los usuarios puede llegar a hacernos pensar que son personas y deben ser protegidas”, ha relatado.
Una máquina no puede sustituir a un médico
El investigador ha querido detenerse en este asunto, que comenzó con los coches autónomos que utilizan programas de inteligencia artificial y que, como cualquier máquina, se pueden equivocar: “¿Quién asume la responsabilidad de los fallos de estos coches, que han causado ya accidentes mortales? ¿El programador? ¿El conductor? Ante estos casos, algunas empresas automovilísticas se han querido lavar las manos echándole la culpa a la IA; ellos no tenían nada que ver porque la decisión la tomó la máquina. La Unión Europea, sin embargo, emitió un primer comunicado en 2020 advirtiendo contra este tipo de elusión de responsabilidades, determinando que la culpabilidad es del fabricante o, si es el caso, del comprador. A las máquinas no se les concede titularidad para tener derechos”.
Centrándose en el ámbito médico, Echarte ha advertido de las consecuencias que puede acarrear la IA. Una de ellas es que el médico “puede acabar adoptando actitudes pasivas, haciendo siempre «lo que diga la máquina», aunque en un determinado momento no entienda, por ejemplo, por qué esta le dice que hay que hacer una biopsia a un paciente”. Esto ya ha empezado a suceder en los hospitales, con pruebas que cada vez son más abstractas y complejas y que, en opinión de este experto, merma en la calidad asistencial: “Pasaremos de tener especialistas, sabios que entienden lo que están haciendo, a puros técnicos que simplemente aplicarán algo que no saben para qué sirve. Los resultados pueden ser inicialmente buenos, pero ¿cuál es el futuro de la profesión? Te puedes convertir en un mero técnico, en un aplicador de herramientas, pero si no sabes utilizarlas no serás capaz de aplicarlas mejor”.
Otro problema es pensar que la máquina puede asumir responsabilidades: “Soy un gran defensor de la IA, creo que puede ayudarnos en muchísimas cosas, pero estando donde tiene que estar. No creo que una máquina pueda sustituir a un médico en el inicio y el fin de la acción. El inicio es el acto de recibir a un paciente y entender que es un alguien, no un algo que haya que manipular; y el fin es la asunción de la responsabilidad: quiero hacerle el bien a este paciente y me preocupo por él. Aunque puedan ejercer una gran asistencia, las máquinas no pueden hacernos creer que prestan un servicio, eso lo hacemos las personas”.