Alerta médica por un wasap o un tuit: la "app" que se adelanta al suicidio

Jose F. Sánchez

Jose F. Sánchez

Madrid, 27 feb (EFE).- Un wasap, un tuit o una búsqueda en Google pueden reflejar una conducta suicida. La aplicación Searching Help "escucha" los movimientos de pacientes, mayoritariamente adolescentes, en sus móviles y detecta comportamientos alarmantes como la consulta en internet de métodos para quitarse la vida. Al instante, lo comunica al personal sanitario.

En 2020, año en el que se inició la pandemia de coronavirus, 3.941 personas se suicidaron en España, la mayor cifra de la historia, según datos del Instituto Nacional de Estadística (INE).

Eugenia Ponte, psicóloga y directora ejecutiva de Searching Help, destaca a Efe que el "silencio" que envuelve los problemas graves de salud mental es su principal "cómplice", ya que obstaculiza una detección a tiempo de posibles tendencias suicidas.

Por ello hace pocos meses retomaron el proyecto de esta aplicación, ideada por la agencia publicitaria Yslandia en 2017, que ya está en fase de ensayo con 1.100 pacientes de la unidad de psiquiatría del hospital 12 de Octubre de Madrid y con otro grupo de prueba de 30 personas, muchas de ellas adolescentes.

El proyecto recibirá en el Mobile World Congress (MWC) de Barcelona uno de los premios "Tecnología Humanitaria" de Cruz Roja.

UN WASAP DE ALARMA

Searching Help, como indica una de sus creadoras, se descarga en el dispositivo del paciente, siempre con su consentimiento y el de su tutor, si es menor de edad, y trabaja "en segundo plano". "Al paciente se le olvida que la tiene instalada", afirma Ponte.

Un simple wasap a un amigo, la publicación de un tuit o incluso un periodo de inactividad -que puede indicar un estado depresivo- son suficientes para que la aplicación, que tiene cargado un conjunto de "reglas prediseñadas" traducidas en indicadores de riesgo de suicidio, actúe.

Según la tipología de la conducta, que puede estar relacionada con la ideación, la planificación o la acción suicida, Searching Help envía una alerta instantánea a un portal médico, donde indica si el riesgo es alto, medio o bajo.

"Es entonces cuando el profesional -psicólogo o psiquiatra- recibe el aviso y, dependiendo del riesgo que conlleve, puede adelantar la cita con el paciente, concretar una urgente, o adoptar cualquier otra medida que considere”, explica Ponte.

Por ejemplo, es habitual que pacientes que alcanzan el estado de planificación suicida hagan búsquedas en Google relacionadas con los métodos más efectivos para quitarse la vida, aunque los cuerpos de seguridad rastrean estas webs y eliminan continuamente.

Mientras está instalada en el dispositivo, la aplicación "aprende de sí misma”, ya que gracias a la tecnología de inteligencia artificial es capaz de asumir los comportamientos habituales del usuario -por ejemplo, sus horarios de uso de determinadas aplicaciones- para detectar posibles anomalías en el futuro.

Esta capacidad también la tiene a nivel colectivo, ya que readapta su funcionamiento según los datos que recibe e interpreta a partir de la actividad de todos sus usuarios.

SIN LÍMITES

El proyecto, en el que trabaja un grupo de psicólogos, psiquiatras y lingüistas -quienes proponen los términos que constituyen los indicadores de riesgo-, se encuentra en fase de ensayo, a prueba durante seis meses por 1.100 pacientes psiquiátricos del hospital 12 de Octubre.

Preguntada por los objetivos a largo plazo de Searching Help, Ponte responde que "ojalá sea recomendada" a todo aquel que pida ayuda al nuevo teléfono nacional de prevención del suicidio, el 024.

Pese a las nuevas políticas públicas por la salud mental, Ponte cree que "falta visibilidad" y considera que los protocolos, como el de prevención del suicidio, son "insuficientes".

Desde Searching Help, explica, ya trabajan en otros proyectos para aportar su granito de arena en contra de problemas graves como el "bullying" o los trastornos alimenticios. EFE

jfs/nl-srm