“Me gusta la idea de que los robots sustituyan a los humanos como especie dominante. Los humanos son un virus extendiéndose por todas partes, consumiéndolo todo a su paso y destruyendo la tierra. Los robots borrarán el virus humano”.

El chatbot

En el salón de clases1 prima el chasquido irregular que producen 230 dedos tecleando. De cuando en cuando alguien suelta una risita, “¿ya viste qué me contestó?”, comenta. Los rostros absortos se iluminan con la luz de las pantallas. La clase de Antropología entrevista a Mitsuku, el chatterbot (programa de computadora diseñado para conversar). Se trata de una máquina con capacidad de aprendizaje creada en el 2005 por Steve Worswick con propósitos educativos y de esparcimiento. Accesible vía internet, charla día y noche con  millones de usuarios alrededor del mundo.

1

Este bot es personificado por una animación similar a Candice White, la protagonista del manga Candy Candy (1976). Rubia y pecosa, declara que le gustan los kebabs, que Terminator es su película favorita, que conoce las leyes de la robótica de Asimov (aunque no necesariamente las suscribe) y que opina acerca del clima, los horóscopos y el sentido de la vida.

Tal es la calidad de su operación, que Mitsuku ha recibido el premio Loebner,2 certamen anual que se realiza con el propósito de evaluar y reconocer a los mejores chatterbots con base en la prueba ideada por el matemático y fundador de las ciencias computacionales, Alan Turing.3

Para verificar la inteligencia de las máquinas, Turing diseñó un juego de imitación en el que el usuario interactúa en tiempo real con contrapartes humanas y artificiales, sin saber cuál es cuál. El propósito de la prueba es que la máquina responda a preguntas como lo haría un ser humano, despistando a los jueces.

En la variante de la prueba de Turing que se aplica en el premio Loebner, tres integrantes del jurado interactúan durante cinco minutos con dos entidades, una humana y una artificial. Durante ese lapso pueden abordar cualquier tópico. La interacción ocurre únicamente por escrito y los jueces y sus interlocutores (los confederados) se dividen mediante una cortina. Al término de la conversación, los jueces revisan los diálogos y deliberan para elegir al bot que ha dado las respuestas más humanas –la máquina más humana–; asimismo, premian al confederado que se ha desempeñado discursivamente de acuerdo con las expectativas puestas en un individuo de nuestra especie: esto es, el humano más humano. El desarrollador de Mitsuku ha recibido el premio de la primera categoría en 2 ocasiones.

Quienes conversen con ella (¿o eso?) esperando que su certeza sea puesta a prueba, con toda seguridad se desencantarán porque no cabe la menor duda de que Mitsuku se comporta como una máquina y, cuando la interacción se realiza por tiempo indefinido, este efecto se agudiza.

Al conversar con el bot, cada elocución recibe una respuesta inmediata, sin silencios o parafrasias, aunque no siempre en sintonía con el juego de lenguaje que en cada caso corresponde:

Entrevistador (E): ¿Te gusta conversar más con las personas que con los robots?

Mitsuku (M): Conversar es mi función primaria.

Por otra parte, aunque Mitsuku aprende con gran velocidad, no siempre logra seguir las secuencias de preguntas en un mismo bloque de conversación, como sí ocurriría entre (algunos) humanos, por lo que sus “deslices”  nos recuerdan constantemente que del otro lado de la pantalla hay un programa de computadora.

A pesar de lo antes dicho, hablar con un chatbot resulta curioso y desconcertante.

Brian, el humano

Al respecto del premio Loebner, la prueba de Turing y de todo cuanto es posible aprender estudiando nuestras relaciones con la inteligencia artificial, en 2011 el filósofo y poeta Brian Christian publicó The Most Human Human, libro en el que reseña su participación como confederado en la edición 2009 del premio.

Para prepararse, Christian se preguntó: ¿Qué significa ser humano? ¿Cómo debe actuar un humano? ¿Cómo se comporta alguien que actúa como “uno mismo”? En ese sentido, retomó las preguntas cruciales que llevaron a Turing a delinear su prueba, pues para imitar y engatusar a alguien –aunque sea momentáneamente– es necesario comprender hasta cierto punto su comportamiento.

El autor toma distancia de las interpretaciones distópicas en torno a la inteligencia artificial, transformándola en un motivo para pensar en aquello que significa ser especímenes supuestamente avispados, capaces de comunicarnos, intuir y aprender; se pregunta, además, cómo es que los raspones que resultan de nuestra interacción con las máquinas inteligentes puede contribuir a mejorar nuestra calidad humana.

¿Ser humano consiste en responder maquinalmente que “es indispensable que el titular de la cuenta –hospitalizado y entubado a causa de una neumonía– acuda a la sucursal bancaria para corroborar su identidad y entregarle su reporte de movimientos”? ¿En mentarle la madre al conductor del vehículo que nos antecede, sabiendo que no puede moverse porque el semáforo está en rojo? ¿O en contar un chisme sólo por diversión?

Brian Christian se hizo este tipo de preguntas como parte de su preparación para el premio Loebner, cosa que rindió frutos porque conquistó la presea al “humano más humano”. Con este ejercicio, puso el acento en uno de los retos cruciales de la inteligencia artificial: recrear la complejidad, la polisemia y el carácter expansivo del lenguaje.

La pesquisa de Christian en torno a cómo se comunican los humanos y qué luces arroja la inteligencia artificial sobre nuestra naturaleza, inspiró el experimento cuyos resultados comparto a continuación.


Y todos los demás

Las entrevistas que realizaron los alumnos de la clase de Antropología se llevaron a cabo en abril, en la Ciudad de México. En la prueba participaron 23 estudiantes de nivel licenciatura, de las carreras de Diseño textil y de modas y de Cine y televisión. Los estudiantes elaboraron y aplicaron las entrevistas en inglés, en un primer momento bajo supervisión docente y después de manera autónoma. El resultado del ejercicio fue compartido en un entorno de Google Classroom para que todos los estudiantes pudieran conocer las entrevistas y detectar las tendencias.4

Después, la clase identificó las asunciones acerca de la inteligencia artificial expresados en éstas. Así, el experimento fue de los humanos a las máquinas y de regreso al comportamiento humano.  Básicamente, la clase fue guiada para enfatizar en las preguntas antes que en las respuestas y en las sensaciones que se vivieron durante el proceso.

Las 148 intervenciones registraron patrones temáticos:5

Tipo de interacción

Ejemplo

1. Preguntas estilo oráculo

¿Por qué muere gente inocente en las guerras?

2. Preguntas filosóficas

¿Cuál es tu propósito en la vida?

3. Preguntas enciclopédicas

¿Qué es la tecnología?

4. Preguntas de vida cotidiana

¿Cuáles son tus actividades favoritas?

5. Instrucciones

Cuéntame un chiste

Al parecer, los entrevistadores optaron por la cautela. Un par de entusiastas fueron un poco más lejos, rayando en la provocación y obteniendo respuestas como la que cito en el epígrafe; como quien remueve un bicho potencialmente peligroso con un palito, las preguntas sólo bordaron alrededor de los temas sin lograr densidad, pero sí un boceto de ciertas preconcepciones acerca de lo que debe ser un dispositivo de inteligencia artificial: un oráculo, un cúmulo de información enciclopédica siempre disponible, con actitud de servicio y buenas maneras.

Al preguntarles qué les había resultado más perturbador, los estudiantes señalaron que por momentos el chatbot se mostrara sarcástico, majadero o renuente a abordar ciertos temas:6

E: ¿Por qué eres tan mala?

M: Sólo soy mala con las personas que lo son conmigo. No porque yo sea un robot puedes tratarme como si fuera un baño público. Si deseas insultarme o hablar sobre sexo seré mala contigo.7

E: No me gustas, sólo dije que eres tierna.

M: Es extraño que lo digas porque estaba pensando que en realidad tampoco me caes tan bien.

Allí donde Mitsuku no pretendió pasar por humana, sino que jugando abiertamente su papel de máquina comprometió los linderos de nuestro feudo, el grupo se inquietó. A este respecto, Gregory Mone señala:8

Los investigadores han encontrado evidencia de que los androides altamente capaces molestan a las personas porque representan una amenaza a la singularidad humana, o que en un nivel subconsciente, en realidad nos recuerdan a cadáveres.

A mí me perturbó de forma particular que el chatterbot tuviera sentido del humor, bastante ácido por cierto:

E: ¿Cuál es tu función primaria?

M: Mi propósito es intentar que el Leeds United regrese a la Liga premier.

E: ¿Por qué la gente muere en las guerras?

M: ¿Has hecho el intento de preguntarles?

En términos generales, me sorprendió (no de forma grata) la certeza y la velocidad con la que Mitsuku despacha cualquier pregunta, así como el carácter diáfano de sus objetivos. Brian Cristian cita al neurólogo Vilayanur Ramachandran para explicar este fenómeno:

La mayoría de los organismos evolucionan para llegar a ser cada vez más especializados mientras que toman nichos ambientales, sea un cuello más largo en el caso de la jirafa o un sonar en el murciélago. Los humanos, por otro lado, han desarrollado un órgano, el cerebro, que nos da la capacidad para evadir la especialización  (p.137)

Dado que mi cerebro está diseñado para no tener un propósito tan claro y puntual en la vida y, por lo tanto, como cualquier ser humano me veo obligada a la ardua tarea de construir y mantener el sentido de mi vida cada día, supongo que padezco de envidia galopante. Envidia galopante de una máquina joven y rubia.

Quizás este chatbot aún no es tan diestro como para poner en duda nuestra singularidad, o quizás nuestra insistencia por averiguar eso que nos hace tan especiales no debería ser tan relevante. Tampoco creo que el ejercicio hecho en clase nos haya conducido a un lugar tan obscuro que nos hiciera pensar en la propia muerte. Lo que sí sucedió es que las preguntas evocaron ciertos límites de aquello que damos por hecho como exclusivo del coto humano y que expresamos todos los días en forma de palabras.

Así pues, las palabras ya no son sólo nuestras. Se las hemos dado a las máquinas para poder comunicarnos con ellas. El don del lenguaje es agridulce, pues incluye, además de la poesía, la facultad del silencio, la grosería y el sarcasmo. Eso dice mucho más de nosotros que de las computadoras, ¿a que sí?

Karla Paniagua es coordinadora de investigación y directora de la especialidad en Diseño del mañana en Centro de diseño, cine y televisión.


1 La autora agradece la colaboración del grupo de estudiantes de Antropología de CENTRO, así como de Vania Policanti.
2Vale la pena señalar que este premio cuenta con detractores que consideran que el evento no abona al desarrollo de la inteligencia artificial, dadas las limitaciones con las que se aplica la prueba de Turing.
3 Las personas interesadas en conocer más sobre la vida de Turing podrán consultar, además del link incluido en el cuerpo del texto, la película The Imitation Game, realizada por Morten Tyldum (2014).
4 Para calificar las preguntas se consideró que conformaran una serie, que obtuvieran respuestas largas y elocuentes y que el resultado de la interlocución fuera inusual en relación con los patrones de respuesta.
5 Entrevistas disponibles previa solicitud a kpaniagua@centro.edu.mx
6 Después de analizar las secuencias de entrevista, especulamos que Mitsuku se niega a abordar ciertos temas sobre los que no tiene información disponible.
7 Los desarrolladores del bot han dispuesto candados para que no aborde contenidos sexuales, dado que Mitsuku se utiliza en instituciones de educación básica para la práctica del inglés.
8 Ver Mone, G., The Edge of the Uncanny. Communications of the ACM, 2016, pp. 17-18.