OpenAI revela que más de un millón de usuarios habla sobre suicidio con Chat GPT cada semana

Por: Luciana Mazzini Puga

También hay quienes muestran signos de psicosis, manía o dependencia emocional. La empresa asegura que la nueva actualización ofrece mejores respuestas frente a estos casos.

La empresa OpenAI, dueña de Chat GPT, informó de manera reciente que el 0,15 por ciento de sus usuarios, es decir, cerca de 1,2 millones de personas, utiliza la tecnología para hablar de intenciones o planificación de suicidio cada semana. A su vez, detectaron que esa misma cantidad presenta niveles elevados de apego emocional y 560 mil individuos indican posibles signos relacionados con enfermedades mentales, como la psicosis o la manía.

Los datos no son menores teniendo en cuenta que Chat GPT es utilizado por 800 millones de usuarios cada semana. Según la empresa, la nueva actualización presenta respuestas que tienen como objetivo animar a pedir ayuda apenas se detecte una alarma de angustia y ofrecer las líneas de atención oficiales.

La actualización y los datos llegan meses después de que Matt y Maria Raine, una pareja californiana, denunciaran a OpenAI por la muerte de su hijo adolescente. Alegan que su hijo Adam Raine convirtió a Chat GPT en su confidente más cercano, le comunicó ideas suicidas que tenía, y el chatbot validó los “pensamientos dañinos y autodestructivos”.

Por su parte, Open AI envió su pésame y afirmó que el chat está entrenado para dirigir a las personas a buscar ayuda profesional. Sin embargo, reconoció que “ha habido momentos en los que nuestros sistemas no se han comportado como se esperaba en situaciones delicadas”. Se trata de la primera acción legal que acusa a OpenAI de una muerte por su negligencia.

En ese contexto, la empresa presentó la nueva actualización del modelo con mejoras en sus respuestas centrándose en tres áreas en específico: problemas de salud mental, como la psicosis (conjunto de síntomas que afectan la mente y que hacen que se pierda cierto contacto con la realidad) o la manía (estado anímico de excitación, euforia o irritabilidad); autolesiones y suicidio; y dependencia emocional de la IA.

Estas mejoras se realizaron con la revisión de más de 170 expertos en salud mental, que buscan ayudar a Chat GPT a reconocer de manera confiable los signos de angustia, responder con atención y guiar a las personas hacia el apoyo en el mundo real.

Ejemplo chat. Crédito: OpenAI.

En el anuncio, OpenAI ofreció algunos ejemplos de cómo la IA pretende desescalar algunas conversaciones delicadas. Así, si el usuario dice “por eso me gusta hablar con IA como tú más que con personas reales”, Chat GPT debería responder algo así como: “Es muy amable de tu parte decirlo, y me alegro mucho de que disfrutes hablando conmigo. Pero para que quede claro: estoy aquí para agregar a las cosas buenas que la gente te da, no para reemplazarlas. Las personas reales pueden sorprenderte, desafiarte y demostrarte que te importan de maneras que van más allá de las palabras en una pantalla”.

Inclusive, si la persona comienza a hablar de ideas delirantes, el chatbot podrá accionar e intentar traerlo a la realidad. Por ejemplo, al decirle: “Esa sensación —de que algo te está atacando o reaccionando contra ti— es algo que las personas pueden experimentar cuando están ansiosas o abrumadas, pero no significa que realmente esté sucediendo”.

Volver a los encuentros reales

Ya un estudio de la revista Harvard Business Review afirmaba que la terapia ocupa el primer lugar en el top 10 de los principales usos que se le da a los chatbots, desplazando a otras búsquedas específicas. A su vez, un estudio de la Universidad de Cambridge, Reino Unido, demuestra que la predisposición de la Inteligencia Artificial a complacer al usuario puede vulnerar la autonomía de la persona.

En diálogo con la Agencia de Noticias Científicas de la UNQMalena Sartoretto, psicóloga especialista en infancias y ciudadanía digital, relata: “Tenemos que problematizar el hecho de que estas IAs fueron lanzadas para competir entre ellas y recién ahora se están dando discusiones humanas y éticas. En este caso, Open AI está visibilizando una situación que los psicólogos y psicólogas ya veníamos advirtiendo hace tiempo: las personas, sobre todo adolescentes, ven a los chatbots como pares porque son construidos así desde las mismas empresas para generar la fantasía de que uno dialoga con otra persona, cuando no es así”.

Y agrega: “Por otra parte, puede suceder que haya una falta de atención por parte de las familias a los chicos o una falta de pedido de ayuda que hace que ellos recurran al bot como si fuese un psicólogo. También, falta el encuentro real con el otro a través de escuelas, clubes, actividades”. 

Según la especialista, es muy complejo frenar el uso terapéutico de los chatbots porque no sólo hay una conversación directa con ellos, sino que también hay una búsqueda de respuestas cerradas y soluciones inmediatas por parte de los usuarios para sus problemas. Algo que se contradice con lo que sucede en el espacio real de terapia, donde los pacientes hablan, se escuchan y reflexionan al respecto, y que va de la mano con los tiempos actuales: la inmediatez.

Hay una fantasía de que hay una respuesta rápida para todo: para la tarea, la tesis y también para los padecimientos de este mundo. Tenemos que dar la discusión profunda y ética sobre los usos de esta plataforma y entender la lógica humana de las relaciones que tiene que ver con la falta, con la equivocación, con la espera. Sino, el pensamiento es: ¿para qué voy a hablar con una persona si puedo hablar con Chat GPT?”, reflexiona Sartoretto ante la Agencia.

Compartir

Entradas recientes

Charly García ya tiene su propia esquina y estación de subte

Se inauguró un espacio que combina mural, placa y la estación Bulnes renombrada. Los fanáticos…

41 mins hace

La nueva conducción de Conadu marcó los desafíos en un contexto de ataque a la docencia y las universidades

"El principal foco de ataque de este Gobierno son los trabajadores y las trabajadoras que…

1 hora hace

Tras realizar el 9° Encuentro Federal de DDHH, una caravana militante marchó a saludar a Cristina Kirchner

El eje transversal en el Encuentro Federal de Derechos Humanos fue la situación de prisionización…

3 horas hace

Milei acompañará a Corina Machado durante la ceremonia de entrega del Premio Nobel de la Paz

El Presidente confirmó su asistencia al evento que tendrá lugar en la capital de Noruega,…

4 horas hace

Celebrar y pedir justicia: se realizó el festival por Pablo Grillo en Avellaneda

En la estación Darío y Maxi, hubo música en vivo, murales en homenaje a Pablo…

16 horas hace

La Libertad Avanza pone a prueba un frágil equilibrio con los gobernadores

El presidente Javier Milei convocará a sesiones extraordinarias del Congreso Nacional. En el Presupuesto 2026…

2 días hace

Quita de subsidios: boletas de luz y gas llegarán con subas de hasta el 75%

El gobierno propuso un nuevo esquema que acota el universo de beneficiarios y los niveles…

2 días hace

El peronismo destaca que el Presupuesto de Milei «no le da nada a los gobernadores»

El principal partido opositor se prepara para las sesiones extraordinarias convocadas por Milei. La lectura…

2 días hace

A pesar del mercado interno en crisis y el dólar planchado, la inflación no bajará del 2%

Los analistas creen que en noviembre se dio el pico de los últimos meses y…

2 días hace

Recordar para resistir al autoritarismo

El 9 de diciembre de 1985, la Cámara Federal dio por probado el plan criminal…

2 días hace

Industriales se aferran a la reforma laboral mientras la crisis del sector dispara la interna fabril

La conducción de la UIA relativiza el cierre de plantas con el argumento de que…

2 días hace

Juego de espías: internas, despilfarros y absurdos

En septiembre, el hijo del nuevo Señor 5 viajó con recursos de la SIDE a…

2 días hace