La psicología de nuestra huella digital

0
84

Tu huella digital —la frecuencia con la que publicas en las redes sociales, si te quedas mucho tiempo viendo la información de un contacto específico, la regularidad con la que revisas tu teléfono a altas horas de la noche— podría contener pistas sobre tu salud física y mental.

Por lo menos esa es la teoría detrás de un campo emergente, el fenotipo digital (digital phenotyping), que pretende evaluar el bienestar de las personas con base en sus interacciones con los dispositivos digitales. Los investigadores y empresas de tecnología monitorean las publicaciones, llamadas, los clics y los desplazamientos de pantalla de los usuarios de redes sociales en búsqueda de cambios conductuales que pudieran tener correlación con síntomas de enfermedades. Algunos de estos servicios pueden ser activados o desactivados por los usuarios; otros, no.

En promedio, según un estudio, las personas tocan sus teléfonos celulares 2617 veces al día; eso deja todo un rastro de datos que pueden ser estudiados.

“Nuestras interacciones con el mundo digital de verdad podrían revelar secretos de las enfermedades”, dijo Sachin H. Jain, director ejecutivo de CareMore Health System, un proveedor de atención médica en Estados Unidos, y quien ha ayudado a estudiar publicaciones en Twitter en busca de señales de problemas de sueño. Sostiene que otros enfoques similares ayudarían algún día a evaluar si los medicamentos de los pacientes están funcionando.

No obstante, el campo es tan nuevo y ha sido tan poco estudiado que incluso quienes lo promueven advierten que ciertos análisis del estilo del fenotipo digital podrían ser tan útiles para la detección de problemas de salud como tener una bola de cristal.

Si una persona sociable de pronto dejara de enviar mensajes a sus amigos, por ejemplo, podría indicar que se ha deprimido, dijo Steve Steinhubl, director de Medicina Digital en el Instituto Scripps de Ciencia Traslacional en San Diego. Pero también “podría significar que alguien se fue de campamento y por ello cambió su conducta normal”, añadió.

Eso no ha impedido que empresas emergentes y gigantes como Facebook se lancen de lleno al campo, a pesar de los cuestionamientos sobre su eficacia y la privacidad de los datos.

Publicaciones y tendencias suicidas

Facebook realiza uno de los esfuerzos más ambiciosos.

Hace poco la empresa anunció el uso de inteligencia artificial para escanear las publicaciones y transmisiones de video en vivo en su red social en busca de señales de posibles pensamientos suicidas. Si el sistema detecta ciertos patrones —por ejemplo, que los amigos escriban en el muro de esa persona comentarios como “¿Puedo ayudarte?” o “¿Estás bien?”—, le asigna una puntuación algorítmica a la publicación y podría alertar a un equipo de revisión de Facebook.

Continue reading the main story Foto

Una pantalla simulada de Facebook en la que la red social muestra mensajes de ayuda que envía si registra posibles pensamientos suicidas por parte de usuarios.

En algunos casos, Facebook les manda a los usuarios una nota de apoyo con sugerencias como “Llama a una línea de ayuda”. En casos urgentes, la red social ha trabajado con autoridades locales para enviar ayuda a la ubicación del usuario. La empresa señaló que, en un mes, su equipo de respuesta había trabajado con socorristas en más de cien ocasiones.

Algunos investigadores del ámbito de la salud aplaudieron la iniciativa de Facebook y la consideraron bien intencionada, pero también plantearon algunas inquietudes.

“Es una gran idea y una gran necesidad que no ha sido cubierta”, dijo Steinhubl. Aun así, añadió, Facebook “ciertamente está acercándose al límite de practicar la medicina no solo sin una certificación, sino quizá incluso sin pruebas de que lo que hace ofrece más beneficios que daño”.

“Estamos creando alarmas contra incendio digitales para la gente con padecimientos mentales”.

Thomas R. Insel, exdirector del Instituto Nacional de Salud Mental de Estados Unidos

Facebook, de hecho, escanea las publicaciones de sus usuarios en Estados Unidos y otros países en busca de señales de posibles pensamientos suicidas sin dar a los usuarios la oportunidad de rechazar esa revisión.

“Una vez que te han descrito como suicida, ¿queda eso asociado para siempre con tu nombre?”, preguntó Frank Pasquale, profesor de leyes de la Universidad de Maryland y estudioso de las tecnologías emergentes de atención a la salud. “¿Quién tiene acceso a esa información?”.

Will Nevius, vocero de Facebook, dijo que esta empresa borra las puntuaciones algorítmicas asociadas con publicaciones después de treinta días y que los casos en que participaron socorristas se guardan en un sistema diferente, no vinculado con los perfiles de los usuarios. Facebook sostuvo que trabajó con grupos de prevención del suicidio para el desarrollo de esa iniciativa.

Detección vía clics

Tradicionalmente, los terapeutas diagnostican la depresión a través de la observación de los pacientes y preguntas sobre cómo se sienten. Mindstrong Health, una empresa emergente de salud mental en Palo Alto, California, está revisando cómo usan las personas su teléfono inteligente.

La compañía ha elaborado una plataforma de investigación para monitorear de manera continua los hábitos telefónicos de los usuarios, observando los cambios en los clics en busca de señales de alteraciones en el ánimo y la memoria asociados con depresión.

“Estamos creando alarmas contra incendio digitales para la gente con padecimientos mentales”, dijo Thomas R. Insel, cofundador de Mindstrong y exdirector del Instituto Nacional de Salud Mental de Estados Unidos.

La aplicación de investigación de Mindstrong rastrea mil datos y puntos de información relacionados con los teléfonos inteligentes, como cuánto le lleva a alguien desplazarse por su lista de contactos y dar clic sobre un nombre. La empresa emergente reclutó a doscientos voluntarios para participar en estudios piloto. Insel dijo que algunas señales, como los cambios en la velocidad y exactitud del uso del teclado, se correlacionan con cambios similares en las habilidades motoras que los investigadores podrían medir en pruebas de laboratorio.

Ahora la empresa está participando en un estudio financiado por el gobierno estadounidense con pacientes que han sufrido un trauma. Parte del estudio incluye el uso de la plataforma de Mindstrong para examinar si los pacientes que desarrollan trastorno de estrés postraumático también muestran los cambios correspondientes en el uso de su teléfono inteligente.

“Tenemos estas señales estadísticas realmente interesantes, con correlaciones muy altas”, dijo Insel. “Aún debemos investigar si eso va a funcionar en el mundo real de la atención clínica”.

Añadió que Mindstrong recurrió a expertos en leyes y ética para que ayudaran a examinar las implicaciones de su tecnología y elaborar marcos éticos para su uso.

“Hay que considerar todas las consecuencias no intencionales desde el inicio”, dijo Insel, “para que no se vuelvan un problema más adelante”.

Un registro de llamadas y de estrés

Continue reading the main story Foto

Aaron Krolik, ingeniero de software de The New York Times, recibió este mensaje de la aplicación Sharecare después de una llamada con la reportera Natasha Singer. El mensaje dice: “La llamada fue calmada y sonabas equilibrado”.

El uso tradicional de un teléfono —hacer llamadas— también es examinado en busca de pistas sobre la salud. Sharecare, una empresa digital de atención a la salud con sede en Atlanta, ofrece una aplicación de bienestar con una funcionalidad optativa que analiza los niveles de estrés de los usuarios durante las llamadas telefónicas.

El sistema usa tecnología para reconocer patrones con el fin de categorizar el habla de los usuarios, de acuerdo con la empresa. Después de cada llamada, el sistema proporciona informes como “Parecías ansioso” o “Te escuchabas equilibrado”. También caracteriza las relaciones del usuario con las personas con las que hablan en términos de actitudes como “dominación” o “afecto”.

Jeff Arnold, cofundador de Sharecare, describió el escaneo de la voz como “una selfi emocional”.

“Si puedo decirte cuál es tu nivel de estrés en tiempo real, eso en sí mismo cambiará tu comportamiento”, dijo Arnold, quien antes fundó WebMD.

Sharecare trabaja con el Instituto Tecnológico de Georgia para estudiar la eficacia de su sistema de análisis de la voz.

Jiten Chhabra, investigador de tecnología para la salud del Centro de Tecnología de Medios Interactivos de esa universidad, señaló que los voluntarios que probaron la funcionalidad de escaneo vocal informaron sentirse menos estresados después de su uso. No obstante, dijo que es muy pronto para decir si el análisis del estrés en sí mismo causó directamente el cambio o si los voluntarios simplemente habían experimentado menos estrés en su vida diaria.

Continue reading the main story Foto

Sharecare dice que no graba las llamadas con su aplicación para análisis de voz, pero no informa a las personas al otro lado del teléfono que registró temas como tono o su posible relación con quien tiene la aplicación.

La empresa dijo que no registra el contenido de las llamadas que escanea. Sin embargo, la aplicación recabó los números telefónicos de las personas al otro lado de la línea que hablaron con los usuarios de Sharecare, según un análisis de The New York Times. El servicio no informó a las personas que hablaron con los usuarios de Sharecare que sus vínculos eran examinados durante esa llamada.

Jennifer Martin, vocera de Sharecare, dijo que la forma en que la empresa protege los datos es que “hace prácticamente imposible que cualquier empleado de Sharecare tenga acceso a un número telefónico”.

No obstante, otros investigadores dijeron que un escaneo tan invasivo también podría causar un efecto contrario al planeado: aumentar el estrés en personas por lo demás saludables.

“Es como si todo el tiempo estuviéramos en la escuela y estas empresas nos estuvieran calificando constantemente por medio de todos los datos que tienen sobre nosotros”, dijo Pasquale, de la Universidad de Maryland.

Source link

Dejar respuesta

Please enter your comment!
Please enter your name here