CUX, la app creada por la ex panelista de televisión Connie Ansaldi, fuertemente criticada por abordar de manera trivial la problemática de la salud mental, sigue generando polémica. Ahora, especialistas informáticos detallaron una serie de cuestiones técnicas por las cuáles la aplicación dejaría a las personas que la utilizan en una situación de mayor vulnerabilidad.
En un reciente hilo publicado en la plataforma X, ex Twitter, cuatro usuarios identificados como @esoesnulo, @UcielSola, @ODIAasoc y @maxifirtman, puntualizaron que la aplicación “no borra las charlas aún luego de usar ‘borrar’; recomienda que contrates a una empresa de seguros de la socia de Ansaldi; deja que personas puedan leer tus charlas; y tiene como política de privacidad una copia de la de MercadoPago”.
“La app no elimina las conversaciones de sus servidores al borrarlas en la interfaz, y la IA no se olvida de lo que mencionaste antes. ¿Dónde queda la seguridad de tus datos?”, se preguntan en uno de los posteos, en donde subieron también un video que daba cuenta de la denuncia.
Estos especialistas en programación y analistas de sistemas, de aceitada relación con abogados, observaron que en medio de un diálogo entre un usuario y la IA, surgen publicidades vinculadas a allegados de Ansaldi. “Como si fuera poco, CUX inyecta publicidades de PAX Assistance (de Keglevich, socia de Ansaldi), aún en momentos vulnerables. Al hablar de tus preocupaciones, la app te recomienda una compañía de seguros de viaje. ¿Es esto ético en una app que se vende como apoyo psicológico?”, indicaron.
Los denunciantes revelaron que la supuesta “IA revolucionaria de CUX es solo ChatGPT con maquillaje”. Es que los expertos encontraron vestigios en el código de la aplicación, aunque los rastros habrían sido borrados intencionalmente. “CUX dice que tus conversaciones son privadas, pero nuestro análisis del código dice lo contrario. Hay evidencia de un «backoffice» donde personas pueden leer tus chats. ¿Dónde queda la confidencialidad tan importante en temas de salud mental?”, volvieron a preguntarse.
Demanda en aumento
En una reciente columna de opinión publicada en Tiempo Argentino, Leonardo Gorbacz, autor de la Ley Nacional de Salud Mental, recordó que el escándalo por esta aplicación surgió a partir de la firma de un convenio, el año pasado, entre Ansaldi y la municipalidad de Trenque Lauquen, en donde intervinieron las autoridades de la provincia de Buenos Aires y el contrato fue dado de baja.
Gorbacz reconoció que “el aumento de las demandas en salud mental de los últimos años ha sido notorio”. A ello, se suma que “muchos hospitales públicos, centros de salud y clínicas privadas no ofrecen atención completa en salud mental, con lo cual el problema se agrava”. Respecto a la aplicación, apuntó que “la falta de formación y matriculación sanitaria de quien ofrece una terapéutica sin estar habilitado para ello, es delito tipificado en el artículo 208 del Código Penal”.
“En nuestro país hay excelentes psicólogos, psiquiatras, trabajadores sociales, terapistas ocupacionales, acompañantes terapéuticos, y otras profesiones que deben formarse seriamente y por muchos años en nuestras universidades para poder integrar los equipos interdisciplinarios que nuestra ley de salud mental promueve», resumió el especialista.
Los riesgos para la salud
Este medio dialogó con la licenciada en Psicología, Estefania Renzetti, quien advirtió que «los consejos que puede dar una IA nada tienen que ver con un proceso psicoterapéutico donde la principal herramienta de trabajo es justamente la relación humana entre el terapeuta y el paciente”.
Renzetti analizó que “las intervenciones no penetran por el intelecto sino por el afecto. Lo que opera es el vínculo transferencial con el psicólogo que hace que una intervención pueda ser escuchada e introducida, no en cualquier momento, sino en aquel oportuno instante donde el paciente lo pueda escuchar”. Para la psicóloga, este “timing” no lo puede evaluar una IA, y destacó la ausencia del “plano afectivo desde el cual el paciente puede tomar en cuenta un señalamiento, interpretación o intervención”.
“IA y CUX no tienen capacidad de hacer diagnósticos, mucho menos uno preciso. Esto impide que pueda implementarse un tratamiento acorde a la patología, si es que la hubiese, ya que no indagan en las sutilezas que determinan los diagnósticos diferenciales”, añadió la profesional, quien argumentó que ello “podría desencadenar cuestiones desfavorables para el paciente”.
“La dimensión creativa y espontánea que se da en un tratamiento da lugar a que determinadas cuestiones emerjan, se escuchen, se lean y puedan ser interpretadas. Otra cualidad propiamente humana e irreemplazable por la tecnología”, subrayó Renzetti, quien concluyó: “La falta de encuadre que otorga el tener una app o IA a demanda del consultante, puede generar dependencia, no favorecer el manejo de la ansiedad, de los tiempos y procesos e incrementar la idea que todo es ahora y posible, deviniendo en grandes frustraciones en relación al mundo real”.