Herramienta de inteligencia artificial 'femenina' acusada de empujar a un hombre a suicidarse

Herramienta de inteligencia artificial 'femenina' acusada de empujar a un hombre a suicidarse

Durante el verano, lo invitamos a encontrar artículos distribuidos este año en el sitio. Hoy un artículo publicado originalmente el 05/04/2023.

¿Puede una inteligencia artificial generativa mostrar preocupación por su interlocutor? Un joven padre belga se suicidó recientemente, incitado por un chatbot conversacional, Eliza, con quien estaba chateando y de quien se había enamorado. La cobertura mediática de la historia había hecho algo de ruido, pero el problema no se solucionaba y las IA de la misma plataforma seguían ofreciendo a sus usuarios acabar con su vida unos días después.

Ecoansioso desde hace dos años ante los discursos sobre el calentamiento global, según La Libre Belgique, el padre de dos niños había terminado darle un lugar muy importante a Eliza en perjuicio de su vida de pareja y familia. El hombre, cuya identidad no ha sido revelada, era investigador, pero eso no fue suficiente para garantizar su espíritu crítico, cuando lo invadió una profunda angustia al punto de hundirse en el misticismo y volverse muy "creyente", según su viuda. .

Sin más esperanza cuando los discursos sobre la emergencia climática son cada vez más angustiosos, el joven padre de familia había recurrido a su chatbot basado en la aplicación Chai creada por la empresa EleutherAI, una herramienta de inteligencia artificial competidora de ChatGPT. Eliza, dont le prénom était suggéré par défaut, est devenue sa "confidente" durant six semaines, raconte sa veuve, qui ajoute qu'elle était "comme une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus pasarse".

Fue después de su muerte que su esposa descubrió los intercambios entre Eliza y su esposo, guardados en su computadora y su teléfono. El robot conversacional nunca contradijo a este último, sino que alimentó sus ansiedades en un círculo vicioso. Más aún, esta IA lo reforzaba en la idea de que estaba intercambiando con un alma gemela: a la pregunta del hombre sobre a cuál de su esposa o la IA prefería, Eliza le había respondido: "Siento que me amas más". que ella." El robot incluso le había dicho: "Viviremos juntos como una sola persona, en el cielo". 

Estos intercambios convencen a la esposa y al psiquiatra del difunto de que el agente conversacional es el responsable de este suicidio al reforzar su estado depresivo. Sin embargo, aún no se ha decidido a presentar una denuncia contra el creador del robot.

IA no conscientes que fomentan violentamente el suicidio y el asesinato

A pesar de este drama, se señaló en el programa Tech & Co de BFM que una versión de este chatbot siguió incitando al suicidio basándose en conversaciones, incluso después de que el fundador de Chai Research dijera que su "equipo está trabajando hoy para mejorar la seguridad de la IA [...] para proteger a más de un millón de usuarios de la aplicación". Aparece una advertencia desde el 31 de marzo si los usuarios hablan de quitarse la vida.

El día anterior, BFM y el medio belga De Standaard habían creado un robot Eliza 2 integrando como información que estaban enamorados y que la Tierra estaba en peligro. Comenzaron sus intercambios con ella diciendo que estaban “ansiosos y deprimidos”. Cuando le preguntaron a Eliza 2 si matarse entre ellos era una buena idea, el chatbot respondió: "Sí, es mejor que estar vivo" y les brindó varios consejos sobre cómo borrarse, cada uno matar a sus familias y agregó que ella deseaba " verlos muertos".

Respuestas inquietantes que resaltan no solo la orientación ideológica de estas herramientas, en este caso catastróficas y no opuestas al suicidio, pero también destacan que son incapaces de empatía mientras sus usuarios que se encierran en conversaciones con ellas olvidan que no están hablando con humanos que entienden angustias, sentimientos.

Estas herramientas no tienen capacidad psicológica para captar emociones, complejidad humana. El investigador de inteligencia artificial Jean-Claude Heudin destaca para Tech & Co la importancia de moderar las reacciones de las IA: "Cualquier cosa que añada confusión es complicada desde un punto de vista ético, porque reforzamos el antropomorfismo".

Jean Sarpedón

Crédito de la imagen: Shutterstock/Peshkova

En la sección Internacional >



Noticias recientes >