Chatbots: ¿buenos o malos imitadores de la interacción humana?

Cuando hablamos de Chatbots, hablamos de imitadores o simuladores de agentes humanos, capaces de mantener un diálogo, interactuar, operar e incluso de adoptar una personalidad o estilo determinado cuando lo hacen. ¿Buena o mala imitación del original? Depende de la tecnología que lo sustente, el conocimiento del que se nutra y los límites o avances de la propia tecnología actual. Y en este contexto, nos encontramos tantos grados de madurez y sofisticación como imitadores en el escenario.

¿Qué hace que los humanos juguemos en clara ventaja? ¿Cómo es el original? En primer lugar, tenemos una inteligencia cognitiva que nos permite compartir un conocimiento del mundo, global y específico, sólo por el hecho de ser y estar, fruto de nuestra capacidad de cognición y experiencia vital.

Los bots en este sentido juegan con desventaja, aunque dispongan de ciertas capacidades, más o menos desarrolladas. Necesitan un conocimiento inducido mucho más restrictivo y específico, siempre dependiente de la pericia, creatividad y esfuerzo del creador de la fuente de conocimiento. Pero si relativizamos su alcance, y lo restringimos a usos y contextos concretos, un bot puede cumplir una valiosísima función. Tampoco pretendemos (tiempo al tiempo) convertirlo ni en nuestro mejor amigo ni en el mejor de nuestros trabajadores.

Por otro lado, nuestra inteligencia humana es también operativa, es decir, podemos ejecutar acciones. Los bots, dentro de su mundo virtual, también lo hacen ya, realizando transacciones y tareas de cualquier tipo (consultas con sistemas externos, altas y bajas, compras, registros, recomendaciones, etc.), obedeciendo las órdenes de una lógica programada.

Pero entonces nos topamos con la “bestia indomable”, como un profesor de lingüística mío solía referirse a la lengua, con el tono de regusto y satisfacción del vencedor. Así es: los interlocutores de un diálogo humano eficaz compartimos y conocemos un código lingüístico común y sus reglas (algunos con suerte varios), adquiridas de forma inductiva y/o deductiva. Aquí los bots pinchan hueso. A priori, no tienen capacidad lingüística como nosotros. Y en este punto, es donde radica la principal diferencia cualitativa entre proveedores de bots en el mercado. Hay quienes suplen esta carencia con búsquedas de respuesta basadas en la detección de palabras clave o patrones sin contexto. Dará igual que el usuario solicite “dar de alta una tarjeta” o “tengo una factura demasiado alta”. Hay quienes confían más en modelos estadísticos basados en el uso real y en cómo los humanos formulamos nuestras consultas de forma frecuente. Más sofisticados y eficaces que los anteriores, sí, pero necesitan una muestra de partida que, para ser representativa y proporcionada, requiere una cantidad de datos reales ingente (¡hablamos de cifras de cuatro ceros en un solo idioma!). Y ahí no termina la cosa: para alcanzar un rendimiento razonable y hacerle como poco bilingüe, se necesitan cientos de miles de datos reales que deben ser retroalimentados y reentrenados continuamente, ya que, por gracia o desgracia, el lenguaje está vivo, evoluciona, cambia y los hábitos de los usuarios y los creativos de las empresas también (nuevos servicios y productos que no estuvieran en la muestra, por ejemplo). No tiene punto y final.

Las limitaciones de ambos enfoques son claramente de origen lingüístico, como no podría ser de otra forma. Las palabras se tratan como elementos carentes de significado y no se enfrentan a los grandes retos del procesamiento del lenguaje natural: la ambigüedad, la contextualización y la variabilidad lingüísticas. El lenguaje es ambiguo por naturaleza a todos los niveles en los que se estructura: morfológico, sintáctico, semántico, pragmático y discursivo. Y ofrece innumerables fórmulas de expresión que, por si fuera poco, dependen además del uso individual: único, personal, irregular y más veces de las que nos gustaría, imperfecto. La cosa se complica aún más cuando tocamos diferentes dominios o verticales del mercado, porque un “cajero” por ejemplo adquiere una dimensión distinta en un banco que en un supermercado.

Parece obvio entonces que sólo un chatbot con buenas capacidades de NLU (Natural Language Understanding o comprensión del lenguaje natural) puede resolver cuestiones de origen lingüístico. El lenguaje desde el propio lenguaje.

Sin embargo, no todo es de color de rosa, el imitador a veces supera al imitado, precisamente por no ser humano. Los bots no duermen ni comen, no enferman, no tienen altibajos emocionales que afecten a su productividad diaria, no se estresan ni saturan y mantienen la coherencia en sus respuestas corporativas. Esto se traduce en una disponibilidad 24/7 sin límite en su capacidad de gestión simultánea de respuestas inmediatas y para cualquier empresa, esto es “oro” (literalmente). La paradoja es que justo esta falta de inteligencia emocional también se convierte en otro de sus principales hándicaps, pero ojo, depende de para quién y para qué.

Si el alcance del proyecto lo requiere (no siempre será así), lo más inteligente que podemos hacer es aprovechar lo mejor de imitadores e imitados. Cada mochuelo a su olivo. Utilizar los bots para las consultas y peticiones más “automatizables” y mecánicas, beneficiando no sólo al usuario final y a las empresas, sino también a los propios agentes que se verán liberados de tareas repetitivas y frustrantes dejando aquéllas más estratégicas, sensibles y personalizadas en manos de los humanos.

Inbenta Team
by Inbenta Team