¿Reemplazará pronto una IA a su psiquiatra?

" Buenos días señor. Por favor siéntate. Entonces… ¿cómo has estado desde la última vez? ¿Y si, dentro de unos años, esta inocua sentencia ya no fuera pronunciada por un psiquiatra en carne y hueso sino por una IA, una inteligencia artificial? Con el reciente resurgimiento de la psiquiatría en el debate público, especialmente por la crisis sanitaria, ha resurgido la idea de proponer sistemas de monitorización de la salud mental integrando IA.

Está, seamos honestos, lejos de ser nuevo ya que encontramos el primer rastro de un chatbot (programa de diálogo) dedicado a la psiquiatría, llamado ELIZA, de 1966. En las últimas décadas, los avances en inteligencia artificial han permitido el surgimiento de Chatbots, “terapeutas robot” u otros sistemas de detección de salud basados ​​en la voz.

Existe hoy más de veinte robot-terapeutas validado por estudios científicos en psiquiatría. Varios de estos trabajos sugieren que los pacientes podrían desarrollar relaciones terapéuticas reales con estas tecnologías, incluso que algunos de ellos incluso se sentirían más cómodos con un chatbot que con un psiquiatra humano.

Por lo tanto, las ambiciones son grandes... Sobre todo porque, a diferencia de sus homólogos humanos, estos "profesionales" digitales prometen decisiones objetivas, reproducibles y sin prejuicios, y estar disponibles en todo momento.

Página de diálogo de ELIZA, con extracto de un intercambio sobre el novio del interlocutor del robot terapeuta
El primer software de diálogo o chatbot es ELIZA, diseñado en 1966 para simular a un psicoterapeuta.
DR

Cabe señalar, sin embargo, que si bien el nombre "robot terapeuta" evoca la imagen de un robot físico, la mayoría son videos basados ​​en texto, posiblemente animados. Además de esta ausencia de presencia física, importante para la mayoría de los pacientes, muchos no reconocen todas las dificultades que experimentan las personas con las que conversan. Entonces, ¿cómo proporcionar respuestas apropiadas, como la remisión a un servicio de asistencia especializado?

Diagnóstico y modelo interno en el psiquiatra

El psiquiatra, en su entrevista con su paciente, es capaz de percibir señales importantes que delatan la existencia de pensamientos suicidas o violencia doméstica, que los chatbots actuales pueden pasar por alto.

¿Por qué el psiquiatra sigue superando a su versión electrónica? Cuando este especialista anuncia "Tienes trastorno por déficit de atención", o "Tu hija tiene anorexia nerviosa", el proceso que lo llevó a realizar estos diagnósticos depende de su "modelo interno": un conjunto de procesos mentales, explícitos o implícitos, que le permiten hacer su diagnóstico.

Tal como ella ingeniería se inspira en la naturaleza para diseñar sistemas de alto rendimiento, puede ser relevante analizar qué pasa por la cabeza de un psiquiatra (la forma en que diseña y utiliza su modelo interno) cuando hace su diagnóstico para luego entrenar mejor a la IA encargada de la imitación… Pero ¿Hasta qué punto son similares un “modelo interno” humano y el de un programa?

Esto es lo que nos preguntamos en nuestro artículo publicado recientemente en la revista Fronteras en psiquiatría.

Comparación hombre-máquina

confiando en estudios previos sobre el razonamiento diagnóstico en psiquiatría, establecimos una comparación entre el modelo interno del psiquiatra y el de los RN. La formulación de un diagnóstico pasa por tres etapas principales:

Recopilación y organización de la información. Durante su entrevista con un paciente, el psiquiatra recopila mucha información (de su historial médico, su comportamiento, lo que dice, etc.), que luego selecciona según su relevancia. Esta información puede luego asociarse con perfiles preexistentes con características similares.

Los sistemas de IA hacen lo mismo: a partir de los datos con los que han sido entrenados, extraen características de su intercambio con el paciente. Características) que seleccionan y organizan según su importancia (selección de características). Luego pueden agruparlos en perfiles y así hacer un diagnóstico.

La construcción del modelo. Durante sus estudios de medicina, luego a lo largo de su carrera (práctica clínica, lectura de informes de casos, etc.), los psiquiatras formulan diagnósticos de los que conocen el resultado. Esta formación continua refuerza, en su modelo, las asociaciones entre las decisiones que toman y sus consecuencias.

Aquí nuevamente, los modelos de IA se entrenan de la misma manera: ya sea durante su entrenamiento inicial o su aprendizaje, refuerzan constantemente, en su modelo interno, las relaciones entre los descriptores extraídos de sus bases de datos y el resultado del diagnóstico. Estas bases de datos pueden ser muy grandes e incluso contener más casos de los que un médico verá en su carrera.

Uso del modelo. Al final de las dos etapas anteriores, el modelo interno del psiquiatra está listo para ser utilizado para hacerse cargo de nuevos pacientes. Varios factores externos pueden influir en cómo hará esto, como su salario o su carga de trabajo, que encuentran su equivalente en el costo del equipo y el tiempo requerido para entrenar o usar una IA.

Como se ha indicado anteriormente, muchas veces resulta tentador pensar que el psiquiatra se ve influido en su ejercicio profesional por todo un conjunto de factores subjetivos, fluctuantes e inciertos: la calidad de su formación, su estado emocional, el café de la mañana, etc. Y que una IA, siendo una "máquina", se libraría de todos estos caprichos humanos... ¡Esto es un error! Porque la IA también incluye una parte importante de subjetividad; es simplemente menos inmediatamente perceptible.

[Casi 70 lectores confían en el boletín informativo The Conversation para comprender mejor los principales problemas del mundo. suscríbete hoy]

IA, ¿realmente neutral y objetiva?

De hecho, toda la IA fue diseñada por un ingeniero humano. Así, si se quiere comparar los procesos de pensamiento del psiquiatra (y por tanto el diseño y uso de su modelo interno) y los de la IA, hay que tener en cuenta la influencia del codificador que la creó. Este tiene su propio modelo interno, en este caso no para asociar datos clínicos y diagnóstico sino tipo de IA y problema a automatizar. Y ahí también se tienen en cuenta muchas elecciones técnicas pero basadas en lo humano (qué sistema, qué algoritmo de clasificación, etc.)

El modelo interno de este codificador está necesariamente influido por los mismos factores que el del psiquiatra: su experiencia, la calidad de su formación, su salario, el tiempo de trabajo para escribir su código, su café matutino, etc. Todo afectará a los parámetros de diseño de la IA y por tanto, indirectamente, a la toma de decisiones de la IA, es decir, a los diagnósticos que realizará.

La otra subjetividad que influye en el modelo interno de las IA es la asociada a las bases de datos sobre las que se entrena. De hecho, estas bases de datos están diseñadas, recopiladas y anotadas por una o más personas con sus propias subjetividades, subjetividad que jugará en la elección de los tipos de datos recopilados, el material involucrado, la medida elegida para anotar la base de datos, etc.

Si bien las IA se presentan como objetivas, en realidad reproducen los sesgos presentes en las bases de datos en las que se entrenan.

Diagrama de síntesis donde juegan factores subjetivos en el establecimiento de un diagnóstico: en el psiquiatra, pero también en los codificadores, ingenieros, etc.
La subjetividad ocurre no solo con el psiquiatra humano, sino también con las IA terapéuticas a través de las elecciones realizadas por los ingenieros, programadores, etc. que las diseñaron.
Vicente Martín, autor proporcionado

Los límites de la IA en psiquiatría

De estas comparaciones se desprende que la IA no está exenta de factores subjetivos y, por este motivo en particular, aún no está lista para reemplazar a un psiquiatra “real”. Este último tiene otras cualidades relacionales y empáticas para adaptar el uso de su modelo a la realidad con la que se encuentra... algo que la IA todavía está luchando por hacer.

El psiquiatra es así capaz de flexibilidad en la recopilación de información durante su entrevista clínica, lo que le permite acceder a información temporal muy diferente: puede, por ejemplo, interrogar al paciente sobre un síntoma que se presentó semanas antes o evolucionar su intercambio en tiempo real según las respuestas obtenidas. Actualmente, las IA se limitan a un esquema preestablecido y, por lo tanto, rígido.

Otra fuerte limitación de las IA es su falta de corporeidad, factor muy importante en psiquiatría. De hecho, cualquier situación clínica se basa en un encuentro entre dos personas, y este encuentro implica el habla y la comunicación no verbal: gestos, posición de los cuerpos en el espacio, lectura de emociones en el rostro o reconocimiento de señales sociales no verbales explícitas... En otras palabras, la presencia física de un psiquiatra constituye una parte importante de la relación paciente-cuidador, que en sí misma constituye una parte importante de la atención.

Cualquier progreso de las IA en esta área depende de los avances en robótica, donde ya se encuentra plasmado el modelo interno del psiquiatra.

¿Significa esto que debemos olvidarnos de la idea de un psiquiatra virtual? La comparación entre el razonamiento del psiquiatra y el de la IA es, sin embargo, interesante desde una perspectiva de pedagogía transversal. De hecho, una buena comprensión de la forma en que razonan los psiquiatras permitirá tener mejor en cuenta los factores involucrados en la construcción y el uso de los IA en la práctica clínica. Esta comparación también arroja luz sobre el hecho de que el codificador también aporta su parte de subjetividad a los algoritmos de IA... que, por lo tanto, no pueden cumplir las promesas que se les atribuyen.

Solo a través de este tipo de análisis podrá desarrollarse en el futuro una verdadera práctica interdisciplinaria, que permita hibridar la IA y la medicina, en beneficio del mayor número posible.

Vicente Martín, Doctorado en Ciencias de la Computación, Université de Bordeaux et cristobal gauld, psiquiatra infantil y médico del sueño, Universidad Paris 1 Panthéon-Sorbonne

Este artículo ha sido publicado de nuevo. La conversación bajo licencia Creative Commons. Lee elarticulo original.

© Info Chrétienne - Autorización de reproducción parcial corta seguida de un enlace "Leer más" a esta página.

APOYAR INFORMACIÓN CRISTIANA

Info Chrétienne al ser un servicio de prensa online reconocido por el Ministerio de Cultura, tu donación es deducible de impuestos hasta en un 66%.