Es una terapeuta virtual que es capaz de tratar múltiples trastornos mentales. Se abre debate.
Con el fin de contar con un sistema digital que permitiera diagnosticar y tratar traumas psicológicos, surgió un programa apodado Ellie, creado en la Universidad del Sur de California, que consiste en una terapeuta virtual que puede tratar una sorprendente variedad de trastornos. Como muchas otras tecnologías, se creó gracias a investigaciones financiadas por las Fuerzas Armadas de Estados Unidos.Gracias a este proyecto, que comenzó a probarse en un creciente número de pacientes, se generó una cantidad de datos formidable acerca de la propia psicoterapia. Esta tecnología mereció un reportaje especial en una reciente edición de la revista Science.
El objetivo, según Albert ‘Skip’ Rizzo, psicólogo que lidera el proyecto, es “forzar a la psicología –aunque sea a regañadientes– a incorporarse al siglo XXI”. Según comentó un editorial de junio de The New York Times, con la llegada de internet hasta comunidades aisladas se podrán llevar tratamientos de salud mental a un gran número de personas que, de otra manera, no tendrían acceso. Pero que los psicólogos clínicos acepten la Inteligencia Artificial (IA) dentro de su disciplina es incierto. Tampoco es claro que las herramientas de la IA puedan llevar a la psicoterapia computarizada más allá de sus capacidades limitadas actuales, advierte Selmer Bringsjord, un investigador de esta disciplina del Instituto Politécnico Rensselaer en Troya, Nueva York. Para él, se trata de un proyecto muy ambicioso. El desarrollo de este nuevo proyecto es la continuación del fuerte avance que registró esta disciplina en los años 60 en el estudio de la interacción humano-computadores, tras lo cual vino el invierno de la IA. Luego, con la llegada del nuevo milenio y el avance en aspectos cruciales, como el reconocimiento de la voz y la identificación visual que hacen los computadores, resurgió el progreso de esta disciplina.
Aun así, muchos científicos todavía ven esto como un truco barato, en que un computador sin inteligencia tiene la habilidad de engañar a las personas haciéndoles creer que están hablando con una persona empática e inteligente.
Esto no es fácil, según Rizzo. Lo que a menudo rompe el hechizo en la conversación entre el paciente y Ellie no es el contenido de lo que se habla, ya que el computador se ajusta al guion que se le hizo, el cual está basado en sesiones de terapia clínica tradicional.
“El problema es la sincronización”, dice este investigador, en referencia a la forma en que los humanos subconscientemente se rastrean y observan entre ellos las emociones durante la conversación. Para mejorar esta sincronización, una cámara sigue las señales psicológicas del paciente: expresión facial, postura, movimiento de manos y la dinámica de la voz. Ellie mide esos datos con el propósito de calibrar el estado emocional.
Hasta ahora, la correlación entre el estado emocional del paciente y la lectura que hace Ellie es bastante exacta, según Louis-Philippe Morency, un investigador que participa en el proyecto. En su trabajo se han dado cuenta de que, por ejemplo, los veteranos de guerra con estrés postraumático sonríen con igual frecuencia que las demás personas. La diferencia es que la sonrisa dura menos y es menos intensa, lo que es un reflejo de la depresión que los afecta.
Otro aspecto que sorprendió a los investigadores es que al decirle a los pacientes que detrás de Ellie hay un terapeuta humano, algo así como un titiritero, ellos prefieren a una terapeuta virtual. “Si no te sientes juzgado, tú te muestras tal como eres”, interpreta Terry Winograd, un investigador de IA de la Universidad de Stanford, en Palo Alto, California.
Para Rizzo, el papel de los terapeutas virtuales no reemplazará al de los humanos. Su papel será de atención de primera línea, para reunir antecedentes básicos del paciente, lo que dará al terapeuta real información similar a la que entrega una batería de exámenes de sangre al médico. Esto es algo que permitirá mejorar la atención de salud mental.
Debate ciudadano
Varios científicos, entre ellos Stephen Hawking, advierten que el avance de la Inteligencia Artificial (IA), entre otras disciplinas como la nanotecnología, la genética y la robótica, está poniendo en riesgo la subsistencia de la humanidad.
Ellos plantean que estas materias deben debatirse públicamente, ya que han pasado a ser un tema político y no solo científico, como lo fueron antes la energía nuclear y los transgénicos.
Advierten que los científicos no han sido elegidos para representar a la gente, por lo que el debate democrático debe tener lugar lo antes posible. Esta discusión, por ejemplo, permitió que el desarrollo de la energía nuclear fuera mucho más seguro en Occidente que en la Unión Soviética, lo que causó en esta última la tragedia de Chernóbil.
El anterior artículo se encuentra en su original aquí