Especialistas en programación, abogados y psicólogos enfatizan que la cuestionada aplicación violaría la privacidad de los usuarios. Los riesgos de llevar adelante un proceso psicoterapéutico con Inteligencia Artificial.

En un reciente hilo publicado en la plataforma X, ex Twitter, cuatro usuarios identificados como @esoesnulo, @UcielSola, @ODIAasoc y @maxifirtman, puntualizaron que la aplicación “no borra las charlas aún luego de usar ‘borrar’; recomienda que contrates a una empresa de seguros de la socia de Ansaldi; deja que personas puedan leer tus charlas; y tiene como política de privacidad una copia de la de MercadoPago”.
“La app no elimina las conversaciones de sus servidores al borrarlas en la interfaz, y la IA no se olvida de lo que mencionaste antes. ¿Dónde queda la seguridad de tus datos?”, se preguntan en uno de los posteos, en donde subieron también un video que daba cuenta de la denuncia.
Estos especialistas en programación y analistas de sistemas, de aceitada relación con abogados, observaron que en medio de un diálogo entre un usuario y la IA, surgen publicidades vinculadas a allegados de Ansaldi. “Como si fuera poco, CUX inyecta publicidades de PAX Assistance (de Keglevich, socia de Ansaldi), aún en momentos vulnerables. Al hablar de tus preocupaciones, la app te recomienda una compañía de seguros de viaje. ¿Es esto ético en una app que se vende como apoyo psicológico?”, indicaron.
Los denunciantes revelaron que la supuesta “IA revolucionaria de CUX es solo ChatGPT con maquillaje”. Es que los expertos encontraron vestigios en el código de la aplicación, aunque los rastros habrían sido borrados intencionalmente. “CUX dice que tus conversaciones son privadas, pero nuestro análisis del código dice lo contrario. Hay evidencia de un «backoffice» donde personas pueden leer tus chats. ¿Dónde queda la confidencialidad tan importante en temas de salud mental?”, volvieron a preguntarse.
En una reciente columna de opinión publicada en Tiempo Argentino, Leonardo Gorbacz, autor de la Ley Nacional de Salud Mental, recordó que el escándalo por esta aplicación surgió a partir de la firma de un convenio, el año pasado, entre Ansaldi y la municipalidad de Trenque Lauquen, en donde intervinieron las autoridades de la provincia de Buenos Aires y el contrato fue dado de baja.
Gorbacz reconoció que “el aumento de las demandas en salud mental de los últimos años ha sido notorio”. A ello, se suma que “muchos hospitales públicos, centros de salud y clínicas privadas no ofrecen atención completa en salud mental, con lo cual el problema se agrava”. Respecto a la aplicación, apuntó que “la falta de formación y matriculación sanitaria de quien ofrece una terapéutica sin estar habilitado para ello, es delito tipificado en el artículo 208 del Código Penal”.
“En nuestro país hay excelentes psicólogos, psiquiatras, trabajadores sociales, terapistas ocupacionales, acompañantes terapéuticos, y otras profesiones que deben formarse seriamente y por muchos años en nuestras universidades para poder integrar los equipos interdisciplinarios que nuestra ley de salud mental promueve», resumió el especialista.
Este medio dialogó con la licenciada en Psicología, Estefania Renzetti, quien advirtió que «los consejos que puede dar una IA nada tienen que ver con un proceso psicoterapéutico donde la principal herramienta de trabajo es justamente la relación humana entre el terapeuta y el paciente”.
Renzetti analizó que “las intervenciones no penetran por el intelecto sino por el afecto. Lo que opera es el vínculo transferencial con el psicólogo que hace que una intervención pueda ser escuchada e introducida, no en cualquier momento, sino en aquel oportuno instante donde el paciente lo pueda escuchar”. Para la psicóloga, este “timing” no lo puede evaluar una IA, y destacó la ausencia del “plano afectivo desde el cual el paciente puede tomar en cuenta un señalamiento, interpretación o intervención”.
“IA y CUX no tienen capacidad de hacer diagnósticos, mucho menos uno preciso. Esto impide que pueda implementarse un tratamiento acorde a la patología, si es que la hubiese, ya que no indagan en las sutilezas que determinan los diagnósticos diferenciales”, añadió la profesional, quien argumentó que ello “podría desencadenar cuestiones desfavorables para el paciente”.
“La dimensión creativa y espontánea que se da en un tratamiento da lugar a que determinadas cuestiones emerjan, se escuchen, se lean y puedan ser interpretadas. Otra cualidad propiamente humana e irreemplazable por la tecnología”, subrayó Renzetti, quien concluyó: “La falta de encuadre que otorga el tener una app o IA a demanda del consultante, puede generar dependencia, no favorecer el manejo de la ansiedad, de los tiempos y procesos e incrementar la idea que todo es ahora y posible, deviniendo en grandes frustraciones en relación al mundo real”.
Será por al menos 14 días, aunque la producción plena recién volvería el 5 de…
El debate sobre cómo podrían conformarse las comisiones que tratarán los dos proyectos centrales del…
Es en la comparación contra el mismo mes de un año atrás según los datos…
El calor de la noche porteña se mezcló con los riffs hipnóticos y la psicodelia…
Las empresas no aseguran el pago de sueldos de noviembre y el gremio aseguró que…
Más de 25 entidades lanzaron un documento conjunto donde desmitifican postulados lobbystas y resaltan la…
El Observatorio de la Deuda Social aclaró que en realidad la contracción es de poco…
Fue en el marco de las actividades por la conmemoración del cumpleaños 97 de Hebe.…
Una pareja de personas adultas mayores necesitó en octubre $1.278.026 para cubrir sus gastos mensuales. Teniendo en…
Las defensas del ex titular de la Agencia de Discapacidad y de los dueños de…
Se trata de la causa que obligó a Sandra Pettovello a repartir la comida almacenada…
El organismo le reclamó al gobierno un marco monetario y cambiario “coherente” y exigió cumplir…