Columna
Por Jorge Letelier
“Sayonara” fue estrenada en Tokio en noviembre de 2010. Escrita por Oriza Hirata, está protagonizada por un androide creado por el ingeniero Hiroshi Ishiguro para el proyecto sobre teatro robótico del Intelligent Robotics & Communication Lab de la Universidad de Osaka. Este androide es capaz de interactuar con un actor de carne y hueso a través de diálogos y pequeños movimientos corporales. El modelo que pudimos ver en sus funciones en GAM ha sido llamado Geminoid F pero en estricto rigor se trata de un actroide, que ha sido desarrollado por Ishiguro desde 2003 y que con los años, ha logrado reproducir de manera fiel una serie de expresiones humanas como mover los ojos, bajar la vista y sonreir.
Crear una inteligencia artificial (IA) con visos de humanidad y que pueda ser aplicada en el arte, ha sido un empeño de creadores desde siglos. Una figura a imagen y semejanza del hombre que nacida para responder a la problemática del trabajo (reemplazarlo en tareas pesadas) ha evolucionado en la imaginería popular a seres pensantes que tensionan los límites filosóficos del ser y de la tecnología como conocimiento. El término Robot fue acuñado en la obra teatral “R.U.R.” (1921), del checo Karel Čapek, pero la génesis del androide (o humanoide) viene desde la Edad Media y la leyenda judía del Golem, la que luego fue actualizada por “Frankenstein”, de Mary Shelley (1818) y ya en el siglo XX por las obras de Isaac Asimov. Así, la literatura y el teatro han buscado afanosamente preguntarse si la inteligencia artificial puede ir más allá de la limitante de su propia naturaleza programada.
Más allá de las posibles capacidades de los robots que la literatura anticipó en el siglo pasado, la evolución de la IA ha permitido desarrollar recientemente una rama llamada creatividad computacional, que ha logrado asignar tareas específicas para los procesos creativos. Ese viejo paradigma de que una máquina no es capaz de apreciar ni elaborar una obra artística ya es pasado. En la música, arquitectura y bellas artes los robots han tenido roles significativos y si bien se tratan de saberes automatizados, ha logrado avances sorprendentes. Recientemente Google desarrolló el programa DeepDream, que permite crear obras visuales a partir de fotografías trabajadas a través de redes neuronales (sistema de unidades neuronales que imitan al cerebro humano). También elaboró el proyecto Magenta, donde a través de un algoritmo pudo crear una composición musical donde la IA determina que nota va después de la anterior. Sin ir más lejos, en 2016 se estrenó en Londres “Beyond the fence”, el primer musical escrito y musicalizado íntegramente por IA, protagonizado por humanos y que cruzó información de textos, diálogos y canciones de cientos de musicales.


Esto ha sido posible porque –más allá de las investigaciones en el área- en las últimas décadas el arte contemporáneo ha consolidado como nunca antes un mestizaje de lenguajes, soportes, cuerpos y materialidades, escenario fértil para la experimentación y donde la tecnología es un elemento primordial. El primer gran paso en esta evolución fue justamente el desarrollo de la creatividad computacional, el que ha logrado grandes avances y si bien aún está apegado a una importante cuota de automatización, ha podido derribar ese viejo paradigma de que el arte solo es cosa de humanos.
Derribada la primera barrera, y volviendo al caso de “Sayonara”, en el teatro se hace palpable que la automatización de este proceso creativo para interactuar con su contraparte humana, es una materia que aún está en una fase más inicial que en otras artes. El propio dramaturgo Hirata estrenó en 2008 junto a Ishiguro la obra “I worked”, donde dos robots interactuaron con dos actores, al parecer, de una forma similar a “Sayonara”, en que la conversación estaba pregrabada para simular el diálogo. En ambos casos, el objetivo de las investigaciones del ingeniero japonés ha sido crear las condiciones iniciales para desarrollar ciertos grados de empatía por parte del androide en su interacción con el actor humano.


El desafío de Ishiguro busca llevar los avances de la creatividad computacional a un paradigma nuevo en la IA. Superar la frontera de la programación automática para convertirla en intuición. Incluso más, en una autoconciencia al estilo “Blade runner” en que un robot o máquina inteligente pueda verse a sí mismo en tanto individualidad.
De manera embrionaria, la historia de “Sayonara” apunta justamente a esa intención. Este Geminoid F ha sido llevado al hogar de una mujer con una enfermedad terminal para que no solo le sirva de compañía, sino para que pueda “actuar” de acuerdo al estado emocional de la mujer. En ese punto, el androide le lee poemas y esboza una leve reflexión sobre la finitud de la vida, ya que similar a la mujer, está defectuoso y será dado de baja.
El punto crucial parece ser hasta qué punto una inteligencia artificial puede lograr esa “humanidad”. El lenguaje teatral está mediado fundamentalmente por la emocionalidad, por tanto una posible complementariedad entre humanos y máquinas debe responder a qué grados de inteligencia emocional debe lograr este robot para alcanzar una comunicación eficaz con el hombre, acceder a ciertos grados de empatía por él.
Bajo ese punto de vista, lo alcanzado por “Sayonara” se ve aún balbuceante. La expresividad facial del Geminoid F, si bien admirablemente mimética, tiene un resultado frío y de una interacción mínima con su contraparte humana. Lo que la obra deja en claro es que la IA aún no ofrece respuestas a las preguntas básicas respecto a la autoconciencia de las máquinas, donde esa frontera es aún un límite que hasta ahora ha demostrado ser insalvable. Volviendo a la literatura y el cine, ¿qué distingue al monstruo de Frankenstein como a los androides de Blade runner? Su capacidad de pensarse a sí misma y de pensar en el otro – humano o su creador- como alguien distinto. Esa otredad refleja un problema filosófico complejo y está lejos de ser resuelto, por mucho que experimentos como “Sayonara” den cuenta de un avance.


La búsqueda de la emocionalidad y subjetividad que caracteriza la experiencia del teatro sigue siendo un terreno pantanoso para la IA, pese a las predicciones de Ray Kurzweil, quien en el libro “The age of spiritual machines” (1998) avizoró la fusión del hombre con la máquina. Hay una zona impredecible, relegada al ámbito más profundo de la experiencia humana, elemental, intuitiva y socialmente compleja, que la IA aún no ha logrado traspasar. Esa naturaleza teatral es ritual e incierta, una zona ajena a los sentidos programados. ¿Podrá la IA desentrañar ese misterio fundamental?
Si bien Hirata parece haber logrado un resultado más convincente con un Geminoid F en “Las tres hermanas”, de Tolstoi (2013), los avances más significativos en este campo los ha aportado la compañía inglesa Engineered Arts Limited con su modelo RoboThespian, un robot antropomórfico que puede conversar, cantar y expresar ciertas emociones. A diferencia del Geminoid F, este RoboThespian parece mejor diseñado para la interacción con los humanos si bien su apuesta no es lograr la mímesis perfecta. En 2014 debutó en Broadway en “The uncanny valley”, historia de un hombre que luego de que su identidad es suplantada, acepta dar su personalidad a un robot a cambio de riquezas. Una de las particularidades del RoboThespian es que es un modelo de producción serializada, que incluso se ha vendido en un pack “teatro de robots” que incluye a tres de ellos, sistema de iluminación y sonido y una plataforma para dirigir sus movimientos. En Varsovia se aplicó con éxito este teatro de robots, logrando un éxito impresionante. En el Festival Fringe de Edimburgo debutó en 2015 con gran éxito “Spillikin”, la historia de un anciano que antes de morir, construye un robot a su imagen para que acompañe a la esposa, quien comienza a sufrir de Alzheimer. El resultado es que producto de la enfermedad, la mujer se enamora del robot al ver la personalidad de su esposo reconstruida.
Quizás si el paradigma de investigación más trascendente en este tema ha sido el de la Computación afectiva, donde se ha buscado que la tecnología pueda desarrollar que las máquinas interpreten la expresividad humana y respondan o interactúen de acuerdo a patrones emocionales. La definición fue acuñada en 1995 por un estudio de la ingeniera informática Rosalind Picard en el MIT para máquinas que interpreten el estado emocional de su contraparte y en base a ello generar las respuestas adecuadas. Si la tecnología es capaz de desarrollar respuestas para que un robot pueda reconocer esa información, el paso a convertir esta herramienta en un poderoso recurso dramático o escénico es inimaginable.
El estudio de Picard establece que una máquina inteligente puede determinar nuestro estado de ánimo a través de micrófonos y cámaras, con sensores regidos por patrones biométricos que leen información de la ropa, lentes, expresiones faciales, temperatura corporal, ritmo cardiaco o cambios en las posturas. Pensado originalmente en la neurociencia, este desarrollo puede llegar a niveles sorprendentes en áreas tan distintas como la sicología y la educación. ¿Pero qué pasa con la creación o interpretación de una pieza dramática? ¿Podrá una máquina inteligente crear un diálogo verosímil, “sentir” una interpretación y crear un momento único solo al percibir los “datos” emocionales de su protagonista humano?
En un camino aún más revolucionario que los estudios de Picard, el coreano Jong-Hwan Kim del Robot Intelligence Technology Laboratory de Seúl, ha desarrollado cromosomas artificiales análogos al humano, con el que se espera los robots piensen, sienten o expresen deseos. O dicho de otro modo, puedan generar una conciencia reflexiva sobre sus actos y lo que perciben del entorno.
Si este es el camino, la tan ansiada autonomía de las máquinas de inteligencia artificial que anticipó la literatura, será un proceso irreversible. Una de las más recientes corrientes de investigación es la del Deep learning o Aprendizaje profundo, donde a los sistemas automatizados se les está aplicando un principio de incertidumbre ante un posible fallo o duda. Si por definición el instante teatral es único e irrepetible, ¿podrá un sistema IA estar preparado para responder no solo a la representación sino que a variantes de esta dependiendo del contexto (error, fallo técnico)?
Kurzweil dijo en “The age of spiritual machines” que antes de 2030 existirán máquinas inteligentes que puedan realizar el trabajo artístico de los humanos. En tiempos de crisis del racionalismo tecnocrático la vieja frase de Descartes, “pienso, luego existo”, podría ser más bien un “siento, luego existo”, como lo dijo alguna vez Milan Kundera. Es muy probable que no sea en la fecha imaginada por Kurzweil, pero ese momento parece estar más cerca de lo que podemos siquiera imaginar.
Texto, Dirección: Oriza Hirata
Asesor técnico: Hiroshi Ishiguro (Universidad de Osaka y ATR Hiroshi Ishiguro Laboratory)
Traducción al español: Matías Chiappe Ippolito
Elenco: El Android, diseñado originalmente por la Universidad de las Artes de Tokio, Makiko Murata y Yozo Shimada.
Android motion, voz: Minako Inoue
Director de escena: Koji Takeyoshi
Android motion, voz: Minako Inoue
Director de escena: Koji Takeyoshi
Iluminación: Shoko Mishima
Subtítulos: Aya Nishimoto
Vestuario: Aya Masakane
Roboticista: Takenobu CHIKARAISHI (Universidad de las Artes de Tokio, Sitio de COI y Universidad de Osaka)
Producción: Sachiko Sawai-Nishio, Yuko Hayashi
Planificación y producción: Seinendan, Agora Planning Ltd
Cooperación sana: FUJITSU TEN LIMITED
Cooperación: Universidad de las Artes de Tokio.
Con el apoyo de la Agencia para Asuntos Culturales del Gobierno de Japón en el año fiscal 2017
Auspicio: Embajada de Japón