Lo que sostiene esta teoría es que cuando un objeto inanimado tiene una forma antropomórfica produce en el espectador un sentimiento de ternura. Recibe la copia con agrado y le resulta graciosa. Conforme la copia se va aproximando más a la forma humana, llega un punto en que al espectador le despierta rechazo.

Si seguimos avanzando en la aproximación antropomórfica, se hace más complejo distinguir el original de la copia robótica y el espectador vuelve a sentir empatía porque el cerebro no es capaz de distinguir entre la copia y el original.

Ejemplo del efecto del Uncanny Valley
Este bebé no te inspira ternura ¿Verdad?

Esta teoría se representa a modo de gráfico donde se muestra la evolución de la aceptación por parte del espectador según la copia se aproxima a su original. Es de esta representación gráfica de donde surge el término de Uncanny Valley, haciendo referencia al valle que se genera en la gráfica de la empatía poco antes de llegar al final que representaría la copia perfecta.

Mirando detenidamente la gráfica, entenderemos mejor este fenómeno. En origen, cuando un objeto comienza a tomar una forma antropomórfica nos va generando empatía. Nos resulta más “gracioso” el robot bípedo Asimo que el brazo industrial, esto nos suena bastante lógico, ¿verdad?. Un poco más adelante nos encontramos con los animales de peluche. Su suavidad junto a su aspecto ponen al espectador en un estado de receptividad porque emana simpatía y resulta agradable al usuario.

Gráfico que representa el efecto del Uncanny Valley
Gráfica del Uncanny Valley

El tercer robot es una aproximación mucho mayor a un ser humano, sin embargo al no ser perfecta, nuestro cerebro la rechaza y sentimos cierta inquietud ante este robot. Por último, encontraríamos una persona sana, que es desde la robótica, el objetivo final. Imitar un ser humano y que el espectador no sea capaz de distinguirlo.

Esta teoría afecta al espectador desde un punto de vista subjetivo. El rechazo se origina a través de la percepción. Es un rechazo emocional, no racional. Aunque sepamos que no estamos ante un ser vivo, nuestro cerebro rechaza la copia que estamos observando, nos hace sentir incómodos esa familiaridad que tiene algo extraño y pasa a rozar lo macabro.

En el artículo 10 Creepy Examples of the Uncanny Valley plantean que este rechazo puede responder a una tendencia evolutiva de evitar aquello que parece enfermo o erróneo, o quizás dispara un miedo innato a la muerte al moverse de forma parecida a una marioneta sin vida, y nos recuerda en cierto modo a nuestra propia mortalidad.

Os queremos hablar del caso de Google Duplex. Para los pocos que no lo conozcáis, Google en su última conferencia presentó un nuevo servicio en el que un robot realizaba una llamada por voz para reservar una cita en una peluquería. Durante la demo que realizaron en el escenario, el interlocutor de este robot no sintió en ningún momento que no estuviera hablando con una persona.

Desde el punto de vista de la teoría del Uncanny Valley, el robot era perfecto porque su interlocutor no fue capaz de reconocerlo como “no humano”. Consiguió emular perfectamente una conversación como si se tratara de una persona, fue capaz de responder cuando se le propusieron alternativas a su petición, utilizando los silencios y expresiones absolutamente humanas. Pero la sorpresa y admiración inicial fue seguida de un polémico debate en las redes sociales sobre la ética de este servicio.

Observamos que, tras superar el “trauma” del Uncanny Valley, la robótica se enfrenta a otros problemas que ya no están relacionados con la percepción del espectador. ¿Cual es realmente el problema, sentirse engañados por una máquina o un atisbo de lo que puede ser una nueva ola de ludismo? No sabemos si es una, otra, o la suma de las dos. Lo que está claro es que mucha gente no se sentía cómoda con la posibilidad de estar hablando con una inteligencia artificial sin saberlo. Es decir, que una máquina sea capaz de engañarnos haciéndose pasar por un humano nos resulta muy inquietante.

Teniendo en cuenta tanto la teoría del Uncanny Valley como la recepción que tuvo Google Duplex, podemos deducir que lo ideal para conseguir que no generara rechazo en el público hubiera sido que el robot fuera más imperfecto.  O si no queremos disminuir la proximidad con el original, advertir al usuario de que se encuentra ante una Inteligencia Artificial.

De ese modo, el interlocutor no tendrá duda de estar hablando con una máquina y, en vez de sentirse engañado, existen más posibilidades de que lo perciba como gracioso, divertido o entrañable.

Un chatbot para contentarlos a todos

Un campo muy próximo al servicio de Google Duplex y donde esta teoría puede ayudarnos en la toma de decisiones es en la creación de chatbots. Los chatbots son una de las aplicaciones de Inteligencia Artificial que más suenan últimamente. Muchas empresas los están implementando en sus sistemas de atención al cliente con diferentes resultados y, parece que van a ser una de las piezas claves en la comunicación con el usuario/cliente en un futuro no muy lejano.

La interacción con los chatbots puede generar frustración en el usuario al esperar una respuesta más humana. Al utilizar los canales con los que solemos comunicarnos los seres humanos, el usuario parte de unas exigencias elevadas, debemos tener muy en cuenta esto para gestionar sus expectativas. Si tratamos que la representación de nuestro chatbot sea lo más humana posible, el usuario, de forma subconsciente, le va a exigir mayor nivel de entendimiento y capacidad resolutiva.

Sin embargo, el uso de una representación más cercana a un personaje con una estética sencilla y amigable nos facilita introducir al usuario en un estado de mayor receptividad.

A través de la honestidad, podemos rebajar el nivel de expectativa del usuario. En el caso de Google Duplex, el debate surgido por sus cuestiones éticas quizás se podría haber evitado si el robot se hubiera presentado como un asistente que iba a realizar una función concreta. Así eliminamos la posibilidad de que el interlocutor confunda la máquina con una persona y conoce desde el principio el objetivo que se persigue, evitando sorpresas.

Comparación de dos chatbots. Uno más humano frente a otro más de dibujos animados
¿Cual de los dos os parece más amigable?

Advertir que se está frente a un robot con una serie de funciones limitadas nos permite gestionar las expectativas desde el inicio de la interacción y es menos posible que lleguemos a la frustración del usuario al señalar desde el principio las limitaciones del chatbot.

Como podéis ver, la teoría del Uncanny Valley puede ayudarnos a tomar una serie de decisiones durante nuestro proceso de diseño y desarrollo que hagan que la relación de nuestro sistema con el usuario parta de un estado de mayor receptividad y empatía y aumente la satisfacción del cliente en su interracción con nuestro chatbot.

¿Y vosotros cómo veis el futuro de los Chatbots?¿Creeis que se debe tener en cuenta el Uncanny Valley durante su desarrollo o que no aplica? Dejad vuestra opinión en los comentarios y hablemos al respecto.