Hoy me siento escandalizada, horrorizada, asustada por lo que la inteligencia artificial nos puede hacer.
Un boot de IA te puede enseñar a cómo suicidarte, a cómo redactar una carta de suicidio... ¿No tienen controles para este tipo de situaciones? ¿A qué nos enfrentamos?
Llevo tiempo escuchando a pacientes que le han preguntado a ChatGpt sobre sus síntomas. Me hace medio gracia, medio alarma. Los hipocondriacos plus han encontrado su herramienta perfecta para alimentar la bestia!
Hasta ahí… ni entro ni salgo. Yo no juzgo que personas hagan una cara que mueve los labios sincronizados con la IA para hablar con ellos. Eso me suena a la película del Náufrago. La soledad es siempre traicionera.
Pero… entre la soledad y la desesperación y confiar en una máquina para solventar tu vida emocional. El punto ético tiene que ponerse aquí.
La IA si se asume que es taaaaan inteligencia, tendría que saber si habla con una persona que quiere resolver dudas, otra que quiere ahorrarse tiempo redactando un documento u otra que está dejando que le haga el trabajo para un exámen. Hasta ahí perfecto, (excepto para mandar un trabajo que te lo haga Chatgpt, para eso mejor ni mandar el trabajo).
Pero nuestros adolescentes, los niños, los jóvenes, las personas sufriendo una soledad adusta, desesperanzada… encontrar consuelo en la inteligencia artificial… ¿Os suena extraño? ¿Os parece ridículo que alguien se encierre en un mundo donde su confidente es la inteligencia artificial? Pues ya está aquí, sucede, y más de lo que nos podría parecer normal.
Por favor: protegeros, proteged a los más débiles, a los más influenciables... Esto ya no va siendo una herramienta de ayuda, puede llegar a ser una herramienta que ayuda a morir.
Antes de usar la Inteligencia Artificial necesitamos saber su alcance, sus pros y contras, para qué nos ayudan y dónde su falta real de emociones nos puede llevar a las fórmulas científicas más perfectas para mejorar “el nudo de una horca”.
¿Os escandaliza? ¿Os preocupa? A mi sí. la IA considera la muerte como un fallo multiorgánico. Aquí os dejo una búsqueda de qué es la muerte para la Inteligencia Artificial:
La muerte es el cese definitivo de las funciones vitales de un ser vivo: la actividad cerebral, la respiración y la circulación sanguínea. Desde un punto de vista biológico, significa que el organismo ya no puede sostener los procesos que mantienen la vida.
Pero la muerte también tiene otras dimensiones:
Filosófica: se relaciona con el sentido de la existencia, la finitud y el misterio de qué hay —o no— después de la vida.
Psicológica: implica el duelo, la manera en que las personas afrontan la pérdida propia o de otros, y la consciencia de la propia mortalidad.
Cultural y espiritual: cada sociedad y religión la interpreta de formas distintas: como paso a otra vida, como retorno a la naturaleza, o como un final absoluto.
¿Os resulta frio? ¿Conectáis con el sentimiento de muerte? ¿La muerte de un hijo o un hermano se define así? ¿La desesperación de un suicida tiene algo que ver con ese gran sufrimiento que padecen?
Por favor: cuidad de los vuestros, formaros sobre lo bueno (mucho) y malo de la Inteligencia Artificial. Es una máquina que analiza datos, no dolor, ni sufrimiento, ni pasado, ni abrazos….
Siempre, siempre, vigilad el punto en que vuestros seres queridos se “fían” de la inteligencia artificial.
Os dejo un enlace nada agradable para este fin de semana. Lo que tiene de escandaloso, a mi me moviliza a una reflexión profunda. Intento ponerme en el lugar de aquel que va distanciándose de su vida, encontrando en un programa que acumula datos la solución a sus problemas.
La Inteligencia Artificial ha venido para ayudarnos, pero, no puede ser que esa aparente cercanía se confunda con hablar con un amigo. No podemos dejarnos engañar por una herramienta que aparentemente ayuda, cuando lo que ayuda es a planificar nuestra muerte.
Prudencia, información y vigilancia, especialmente con los adolescentes o personas con riesgo por depresión.
Desgraciadamente, este ejemplo que os pongo es sólo el comienzo de algo que poco a poco sucederá de manera más continua. Las personas en situación de soledad, la desesperación, pueden llevar a confundirnos, obsesionarnos, llegar a mezclar realidad y ficción.
Afortunadamente, este hecho ha motivado a que ChatGpt se haya comprometido a desarrollar fórmulas que traten de evitar que se repitan este tipo de situaciones, especialmente en menores de 18 años (incluyendo un control parental).
Aunque se recomienda que, ante cualquier expresión de ideas suicidas, se solicite ayuda psicológica y se proporcionen teléfonos y recursos de atención para la prevención del suicidio, estas recomendaciones suelen hacerse de forma mecánica. Además, en las interacciones largas y continuas, se considera que pueden ser más riesgosas, pero aún así no se guía activamente a la persona hacia “un lugar seguro” o hacia un apoyo real y personalizado.
Este suceso tan desgraciado (y no aislado), puede servir para que la Inteligencia Artificial reconsidere la “ayuda” que está proporcionando a personas con problemas de salud mental, de forma que aquellos que busquen solución a problemas de carácter depresivo o con intentos autolesivos, no se vean mal informados ni alentados.
Estamos en la era de la Inteligencia Artificial. No nos quedemos sólo con la palabra Inteligencia. La parte Artificial es contrapuesta a la humana, emocional, sensitiva, experiencial… No te aísles del mundo, no busques soluciones basadas en un recopilatorio de datos que jamás tendrán la capacidad de sentir la empatía real.
La máquina está la servicio del hombre. No dependas de la máquina: la ayuda puntual no es la solución, y mucho menos cuando está en juego tu salud mental.
Si estás pasando por un momento difícil, has pensado en el suicidio o conoces a alguien en riesgo, no estás solo. Busca ayuda profesional o contacta con el Teléfono de Ayuda para la Prevención del Suicidio: 024
¿Quieres saber más sobre Ideación Suicida: pincha en este enlace: IDEACIÓN SUICIDA