Especialistas en programación, abogados y psicólogos enfatizan que la cuestionada aplicación violaría la privacidad de los usuarios. Los riesgos de llevar adelante un proceso psicoterapéutico con Inteligencia Artificial.

En un reciente hilo publicado en la plataforma X, ex Twitter, cuatro usuarios identificados como @esoesnulo, @UcielSola, @ODIAasoc y @maxifirtman, puntualizaron que la aplicación “no borra las charlas aún luego de usar ‘borrar’; recomienda que contrates a una empresa de seguros de la socia de Ansaldi; deja que personas puedan leer tus charlas; y tiene como política de privacidad una copia de la de MercadoPago”.
“La app no elimina las conversaciones de sus servidores al borrarlas en la interfaz, y la IA no se olvida de lo que mencionaste antes. ¿Dónde queda la seguridad de tus datos?”, se preguntan en uno de los posteos, en donde subieron también un video que daba cuenta de la denuncia.
Estos especialistas en programación y analistas de sistemas, de aceitada relación con abogados, observaron que en medio de un diálogo entre un usuario y la IA, surgen publicidades vinculadas a allegados de Ansaldi. “Como si fuera poco, CUX inyecta publicidades de PAX Assistance (de Keglevich, socia de Ansaldi), aún en momentos vulnerables. Al hablar de tus preocupaciones, la app te recomienda una compañía de seguros de viaje. ¿Es esto ético en una app que se vende como apoyo psicológico?”, indicaron.
Los denunciantes revelaron que la supuesta “IA revolucionaria de CUX es solo ChatGPT con maquillaje”. Es que los expertos encontraron vestigios en el código de la aplicación, aunque los rastros habrían sido borrados intencionalmente. “CUX dice que tus conversaciones son privadas, pero nuestro análisis del código dice lo contrario. Hay evidencia de un «backoffice» donde personas pueden leer tus chats. ¿Dónde queda la confidencialidad tan importante en temas de salud mental?”, volvieron a preguntarse.
En una reciente columna de opinión publicada en Tiempo Argentino, Leonardo Gorbacz, autor de la Ley Nacional de Salud Mental, recordó que el escándalo por esta aplicación surgió a partir de la firma de un convenio, el año pasado, entre Ansaldi y la municipalidad de Trenque Lauquen, en donde intervinieron las autoridades de la provincia de Buenos Aires y el contrato fue dado de baja.
Gorbacz reconoció que “el aumento de las demandas en salud mental de los últimos años ha sido notorio”. A ello, se suma que “muchos hospitales públicos, centros de salud y clínicas privadas no ofrecen atención completa en salud mental, con lo cual el problema se agrava”. Respecto a la aplicación, apuntó que “la falta de formación y matriculación sanitaria de quien ofrece una terapéutica sin estar habilitado para ello, es delito tipificado en el artículo 208 del Código Penal”.
“En nuestro país hay excelentes psicólogos, psiquiatras, trabajadores sociales, terapistas ocupacionales, acompañantes terapéuticos, y otras profesiones que deben formarse seriamente y por muchos años en nuestras universidades para poder integrar los equipos interdisciplinarios que nuestra ley de salud mental promueve», resumió el especialista.
Este medio dialogó con la licenciada en Psicología, Estefania Renzetti, quien advirtió que «los consejos que puede dar una IA nada tienen que ver con un proceso psicoterapéutico donde la principal herramienta de trabajo es justamente la relación humana entre el terapeuta y el paciente”.
Renzetti analizó que “las intervenciones no penetran por el intelecto sino por el afecto. Lo que opera es el vínculo transferencial con el psicólogo que hace que una intervención pueda ser escuchada e introducida, no en cualquier momento, sino en aquel oportuno instante donde el paciente lo pueda escuchar”. Para la psicóloga, este “timing” no lo puede evaluar una IA, y destacó la ausencia del “plano afectivo desde el cual el paciente puede tomar en cuenta un señalamiento, interpretación o intervención”.
“IA y CUX no tienen capacidad de hacer diagnósticos, mucho menos uno preciso. Esto impide que pueda implementarse un tratamiento acorde a la patología, si es que la hubiese, ya que no indagan en las sutilezas que determinan los diagnósticos diferenciales”, añadió la profesional, quien argumentó que ello “podría desencadenar cuestiones desfavorables para el paciente”.
“La dimensión creativa y espontánea que se da en un tratamiento da lugar a que determinadas cuestiones emerjan, se escuchen, se lean y puedan ser interpretadas. Otra cualidad propiamente humana e irreemplazable por la tecnología”, subrayó Renzetti, quien concluyó: “La falta de encuadre que otorga el tener una app o IA a demanda del consultante, puede generar dependencia, no favorecer el manejo de la ansiedad, de los tiempos y procesos e incrementar la idea que todo es ahora y posible, deviniendo en grandes frustraciones en relación al mundo real”.
Han provocado los gobiernos de Estados Unidos e Israel con su guerra una crisis económica…
La Libertad Avanza logró armar con aliados un grupo de 17 diputados sobre 31 que…
Un triunfo de la lucha del SUTNA. La empresa acordó con el sindicato en mayo…
La información oficial presenta un promedio semestral que no da cuenta del cambio de tendencia…
El jefe de Gabinete compró una propiedad apenas dos semanas después de asumir su actual…
El gobernador bonaerense participará de la vigilia en la Carpa de la Dignidad y también…
“La escopeta fue robada de acá adentro", admitió el abuelo. Habló el portero que logró…
Mariana Oroño, representante del joven de 15 años involucrado en el ataque en la Escuela…
La producción se estrena el 5 de junio en Apple TV+. Mirá el flamante tráiler.
Así lo informó el organismo este martes. Equivale a 10,4 millones de personas que sufren…
La Fundación El libro, organizadora de la Feria, anunció que este año se contarán entre…
La muerte por sobredosis de un profesional del Hospital Gutiérrez, en una escena donde había…