Estos gigantes tecnológicos se enfrentan a un reto científico complejísimo, responder con solvencia a una pregunta: ¿qué puede hacer la inteligencia artificial (en adelante IA) frente al dolor humano, cuyo lenguaje fundamental es la metáfora, y cuya expresión toma con frecuencia la forma del absurdo o del sinsentido?
En esa perspectiva, ¿puede un chatbot auténticamente responder o simplemente asistir en el sentido de dar información?
Formulado de otra manera: ¿cuál es el alcance esperado para la IA?, ¿una asistencia en crisis que informa sobre los recursos de atención?, ¿puede ella ir más allá de la función de unas orientaciones generales o de la función de remisión a un directorio de instituciones y profesionales para la atención propiamente dicha?
Para contestar a la pregunta sobre el alcance del desarrollo de asistentes virtuales como recurso para la atención en casos de alteraciones emocionales hay que considerar que la respuesta humana (calificada o entrenada, formada o espontáneamente acertada) trasciende la información y puede ofrecer algo distinto al padeciente: el espejo de una identificación posible. Por ejemplo, en la comunicación terapéutica los consultantes empiezan a encontrar recursos en mecanismos que podrían expresarse de la siguiente forma: “Si el otro, mi semejante —el psicólogo, el doctor, la enfermera— me asegura que puedo superar el dolor de esta situación, y me refiere que otras personas se han recuperado de una tristeza insoportable, y da su testimonio”, se abre una dimensión curativa que no puede ofrecer un robot.
El sufriente puede proyectar, en el espejo del profesional, sus esperanzas.
En ese mismo sentido, solo lo humano puede brindar una experiencia de acogimiento, vale decir: propiciar en el otro la suposición de ser entendido, pues para esto se requiere un “prójimo”.
Hay que considerar el elemento eficiente en el efecto apaciguador de la respuesta humana, en lo que se llama el acompañamiento o la contención emocional, que tiene alcance en la comunicación terapéutica, en la modulación del sufrimiento.
Si la función terapéutica se sirve de una dimensión especular (para volver a referir a ella), incluso encontrando en el otro un modelo vivo, real, ¿qué puede la IA?
¿Puede la IA alcanzar otra cosa que la receta, el algoritmo?
Si la función terapéutica halla un factor eficiente en la “comprensión”, esto es: que la persona sienta que se dirige a alguien que puede captar el sentido vivencial de lo que intenta trasmitir ella con las metáforas del dolor, aludiendo a lo inefable; se entiende la pregunta de lo que puede ofrecer la IA, más allá de una operación mecánica o matemática de una interpretación de diccionario.
Así, si puede referirse el efecto terapéutico del humor, es justamente por el alcance del fuera de sentido, o del absurdo, o de lo paradójico, incluso de lo imprevisto; de lo no programable.
Hay algo de lo “propiamente humano” que dinamiza la comunicación terapéutica, y eso, además de estar referido al lenguaje del ser hablante, alude a un cuerpo. No es lo mismo consultar una máquina que dirigirse a otro que sabe lo que es un cuerpo expuesto al dolor, al sufrimiento, al desamor, la traición, el desarraigo, etc.
Intuir sentirse entendido es algo fundamental en la experiencia de ayuda; y es en una vitalidad transitoria, sensible, vulnerable frente a la omnipotencia de condiciones ante las siente que no puede luchar, que lo humano encuentra a su otro, a su semejante.
Resulta interesante no dejar pasar por alto, en esta consideración sobre las condiciones que favorecen la ayuda en vivencias de alteración emocional (para no reducirlas a patologías, trastornos, enfermedad mental, conducta anormal), el alcance terapéutico de dirigirse a un otro al que el consultante supone que puede engañar.
Ello se refiere al manejo de los recursos terapéuticos –de los tiempos y los mecanismos – de un padeciente que regula, por ejemplo, la mención de la verdad sobre aquello que lo ha confrontado con la experiencia límite del dolor, en la forma de la depresión o del intento de suicidio. Y que en el acompañamiento supone un acercamiento gradual a lo traumático, que puede pasar incluso por la mentira, la rectificación, el desmentido. Como una manera de aproximación gradual a la nominación de lo auténticamente vivido, sentido, experimentado, acontecido.
Es en esta medida que adquiere pleno sentido el interrogante por el alcance de la IA, ¿puede trascender, un asistente virtual, el desciframiento del dolor más allá de un algoritmo de diccionario?
Un punto central del problema se ubica en las coordenadas del lenguaje, de un ser expuesto al dolor pero que además habla; y que por ello puede hacer uso de todos los recursos de los que en esta condición dispone: que miente con la intención de decir la verdad, que dice la verdad con la intención de engañar, que puede querer no ser curado de aquello que lo aqueja; que puede buscar la solidaridad en su dolor, no necesariamente las instrucciones para curarlo. O que, incluso, puede ofrecerse como incurable, y hallar en ello un sentido.
Después de todo, un ser hablante es un ser que aspira a un sentido para su existencia, y que, muy propio de su condición, no se satisface con lo existente. O un ser que aspira a una satisfacción que no alcanza dentro del sentido.
En tal orden de cosas, la respuesta de los asistentes virtuales de Google y Apple, frente a la depresión, el dolor y la inminencia del suicidio —si lo que buscan es generar recursos efectivos para el apaciguamiento, el acompañamiento o la contención emocional—, tendrán que vérselas con el problema de que los alcances de la comunicación terapéutica (en la modulación del sufrimiento) no se concretan en ofrecer una instrucción, si no en los medios de esta.
Estos son, desde luego, solo unos elementos para propiciar el análisis.