jueves, 15 de octubre de 2009

Robots



Entrevista de Eduard Punset con Alan Winfield, ingeniero en robótica de la
Universidad de West England. Bristol, junio de 2009.



Utilizamos los robots como microscopios para
estudiar la evolución de la cultura
Alan Winfield


Eduard Punset:
Alan, dijiste en algún lugar que te encanta este proyecto porque es una mezcla entre la filosofía experimental (así lo llamas) y la ingeniería o la robótica. ¿A qué te referías exactamente? ¿Buscáis algún tipo de nueva cultura con esto?

Alan Winfield:
En cierto modo sí. Lo que quería decir es que, como trabajamos con robots, evidentemente desarrollamos y diseñamos nuevas tecnologías en el campo de la robótica, es decir, avanzamos en la tecnología robótica. Pero, de hecho, a mí no me interesan demasiado los robots en sí. Los robots que tenemos aquí no son más que una herramienta para hacer ciencia; de hecho, en este proyecto concreto, sirven para investigar los orígenes de la cultura.
Eduard Punset:
Acepto que realmente el primer objetivo de este enorme proyecto sea conocer algo sobre cómo surge la cultura. No sabemos nada del tema… no sabemos cómo los humanos o el resto de animales desarrollan la cultura. ¿Qué es de hecho la cultura? ¿Empezáis a intuirlo? ¿Es algo sobrenatural? ¿O natural? ¿O lógico?
Alan Winfield:
Pues no es sobrenatural, eso no; pero definir exactamente qué es la cultura es muy difícil. Si lo buscas en el diccionario, verás que la cultura se define como «pautas de conducta humana».¡Y esto no nos ayuda nada cuando estudiamos robots, o delfines, o chimpancés, o extraterrestres! Pero no hay duda de que sucedió algo importante cuando los homínidos pasaron de ser animales sociales a animales culturales. Pasó algo grande, y no estoy seguro de cuándo sucedió, la mayoría de antropólogos creen que el Big Bang de la evolución cultural humana tuvo lugar hace unos 30.000 ó 40.000 años.Pero, en realidad, algo muy interesante había sucedido antes de eso, mucho antes.

Eduard Punset:
¿Y qué fue?

Alan Winfield:
Pues no lo sabemos exactamente, y en parte es lo que intentamos descubrir aquí. El caso es que sabemos, por ejemplo, que la inteligencia social es muy importante. Sabemos que nuestros parientes más cercanos genéticamente (los chimpancés) tienen una inteligencia social muy bien desarrollada, exquisitamente bien desarrollada. Sin embargo, los chimpancés tienen comportamientos culturales muy limitados. Algunos etólogos prefieren utilizar el término «tradiciones». Vamos, que algunos chimpancés tienen tradiciones como utilizar piedras para romper nueces, o utilizar palos para…

Eduard Punset:
…hacer salir a las hormigas…

Alan Winfield:
Exacto. Son tradiciones, y suelen ser muy persistentes durante períodos de tiempo muy largos,
pero es algo distinto. Claramente, la inteligencia social no basta para la cultura. ¿Y cuál es el
elemento que falta, qué nos falta?
Pues otro aspecto importante (en mi opinión) es la imitación.

Eduard Punset:
Parte de los experimentos de Alan Winfield analizan la imitación, la imitación artificial. ¿Podemos hacer que los robots se imiten entre sí de maneras realmente interesantes y sofisticadas? ¿Es la imitación por sí sola la clave de la cultura? Tal vez no. Tal vez se necesite inteligencia social y además imitación. ¡Tal vez tampoco baste con estas dos cosaspor sí solas! Quizá se necesite otro tipo de inteligencia. En el libro La prehistoria de la mente, Steven Mithen, que pasó por Redes hace unos años, afirma que los homínidos primitivos tenían inteligencia técnica, que es el tipo de inteligencia que se necesita para confeccionar herramientas. También sostiene que los homínidos primitivos tenían lo que denomina inteligencia sobre historia natural, que consiste en el conocimiento sobre el aprovisionamiento…la caza, los conocimientos sobre qué árboles dan frutos en cada momento, cómo encontrarlos, cómo predecir si ha llegado la temporada de los árboles frutales... En resumen: lo primero que tiene que haber para que surja la cultura es algún tipo de inteligencia social. Lo siguiente es la imitación. En esto los biólogos están de acuerdo, porque sabemos que cuando un chimpancé mira a otro que come una manzana, aprende a comerla. El tercero tipo de inteligencia sería la inteligencia técnica. Y el último elemento… o el cuarto, sería el conocimiento de varios dominios de la inteligencia: el biológico, el de otros animales, de la caza. ¿Pero cómo pueden percibir todo esto con los robots? Alan Winfield nos lo contó…

Alan Winfield:

Se trata de un experimento, de un proyecto, que todavía tiene varios años por delante. Todo lo que ves, esta zona de aquí, el sistema de localización, el software y la infraestructura… todo esto es nuestro “microscopio” para intentar estudiar… los orígenes de la cultura. Estos robots parecen muy simples pero, de hecho, son máquinas bastante complejas. Cada robot tiene, por ejemplo, una cámara delante para poder ver. No ve muy bien, es como si fuera un poco miope, y no distingue muy bien los colores, pero puede ver. Además, como podemos comprobar, el robot también tiene luces.

Eduard Punset:
¿Para qué son?

Alan Winfield:
Las luces son una manera de señalización entre los robots. Son una forma de comunicación. Estas luces son como una especie de cola, piensa en ellas como una cola llena de plumas que atrae a otro robot. Además, cada robot tiene dentro un ordenador bastante sofisticado, con una potencia parecida a la de un portátil. Así que podemos programar un nivel bastante alto de inteligencia. Y no solamente tienen la cámara y las luces, también les hemos puesto un anillo de sensores táctiles, que sirven para que los robots no choquen entre sí. Porque tienen estos sensores táctiles. Los robots también tienen comunicaciones por radio, así que podemos obtener la información de lo que está pasando en su cabeza. Pero lo importante es que están programados: tienen memoria e inteligencia. No programamos todas y cada una de las conductas: algunas están programadas, otras se aprenden, y otras evolucionan. En este experimento, intentamos demostrar el aprendizaje social; de hecho, la imitación. Mira a estos dos robots: este robot es el profesor y el otro robot es el alumno. Verás que el robot profesor llevará a cabo un movimiento, una especie de cuadrado, una especie de baile formando un cuadrado. Aquí el profesor demuestra el movimiento, y el robot alumno lo observa.

Eduard Punset:
El profesor traza un cuadrado.

Alan Winfield:
Exacto, eso es.

Eduard Punset:
Y mencionabas también, Alan, que no siempre lo hacen igual.
No es idéntico, hay algunas diferencias.

Alan Winfield:
Porque los robots no ven muy bien…

Eduard Punset:
¡Mira eso! ¡Es fantástico! ¡Mira cómo se mueve el otro!

Alan Winfield:
…la conducta copiada o aprendida a veces es bastante precisa, ¡pero otras veces es completamente errónea! Ahora el profesor lleva a cabo su baile y traza un cuadrado, llamémosle baile cuadrado. Y el robot alumno lo observa. Como ves, el robot alumno se gira para captarlo, para ver cómo se mueve el robot profesor. Ahora el alumno copia el movimiento del profesor y, si lo analizamos detalladamente, veremos que no es una copia exacta. Por supuesto, entra dentro de lo esperable, porque ese robot, el alumno, lo ha observado con sus propios sentidos y ha tenido que ingeniárselas para copiar el movimiento a partir de la observación, intentando reproducir con su cuerpo el mismo movimiento que vio en el robot profesor. Es un ejemplo de imitación, de aprendizaje social.

Eduard Punset:
Ahora el profesor vuelve a empezar… le muestra al alumno cómo trazar un cuadrado.

Alan Winfield:
Lamentablemente, esta vez el alumno apunta en la dirección incorrecta, ¡no está mirando hacia el sitio adecuado! Pero bueno, ahora lo está buscando. Imagina que estás aprendiendo a jugar al golf. Tienes un profesor que intenta enseñarte a jugar, pero no lo haces perfectamente. Pues bien, ¡con el robot pasa lo mismo! Así que estos robots son máquinas bastante complejas, pero en realidad las programamos para hacer cosas sencillas.

Eduard Punset:
Se centran en ejecutar cosas locales, cosas simples.

Alan Winfield:
Sí, exacto. Así es. Una característica de la inteligencia de enjambres (y sin duda de este enjambre de robots) es que no hay un control central. Cada uno de estos robots es completamente autónomo, es decir, hace lo que quiere: no hay ningún otro robot que le diga lo que tiene que hacer, yo tampoco se lo digo… no hay controlador, no hay ningún cerebro robótico que les diga a estos robots individuales qué hacer. Por tanto, se comportan como individuos, con decisiones locales, detección local y toma de decisiones local.

Eduard Punset:
Ya sé que a ti no te preocupa mucho lo que voy a preguntarte, porque lo que te preocupa
realmente es la cultura emergente, cómo surgió la cultura, y esto es fantástico. Pero las personas corrientes como yo se preguntan también para qué sirve todo esto. ¿Nos ayudará, por ejemplo, en la biología o en la medicina? ¿Llegará un día en el que los robots sean tan pequeños que podamos tragárnoslos para que detecten lo que sucede en nuestro cuerpo? ¿Cuáles son las perspectivas?

Alan Winfield:
La respuesta a la pregunta sobre si hay aplicaciones de la robótica de enjambres es que sí: hay muchas aplicaciones de la robótica de enjambres en el futuro. En las aplicaciones del mundoreal, normalmente, construimos un robot muy complicado y muy caro para que realice una tarea concreta. Pero en realidad no es la mejor manera de proceder. Hay muchas tareas que nos gustaría hacer en el mundo real que funcionarían mejor mediante un gran número de robots simples, en lugar de un robot único y complicado. Te hablo de casos en los que, porejemplo, tenemos muchas sustancias en el entorno que están desperdigadas, y queremos hacer un mapa, medirlas, descubrirlas, explorarlas.
Por ejemplo la construcción. Vamos, cualquier aplicación en la que haya materiales u objetos en el entorno que estén distribuidos en el espacio y que deban manipularse o tratarse de un modo distribuido. Y hay muchísimas aplicaciones así. Desde el reciclaje de residuos, el procesado de residuos, la minería, la silvicultura, la cosecha, el control de la contaminación… hasta las tareas de
localización y rescate. Imagina que pudiéramos tener un enjambre de robots suficientemente pequeños para meterse entre las ruinas de un edificio derrumbado. Como serían muchos, podrían explorar rápidamente todos los espacios, localizar a los supervivientes y luego, colectivamente, transmitir una especie de mapa tridimensional del lugar en el que se encuentran para el equipo de rescate. ¿No sería fabuloso? ¿Y no sería incluso mejor si los robots pudieran luego juntarse físicamente entre sí para ayudar a los supervivientes? Sé que suena… Sé que tal vez suene a ciencia ficción, pero no: creo que esto será posible dentro de unos 10 ó 20 años.

Eduard Punset:
Y en biología o medicina es fácil imaginar también un robot microscópico que te puedas tragar…

Alan Winfield:
Exacto. Imagina que un enjambre de robots pudiera entrar en tu cuerpo, tal vez tras ser inyectado en tus arterias, con herramientas microscópicas, para poder encontrar y localizar el problema, y luego operarlo desde dentro del cuerpo. ¡Sería fantástico!

Eduard Punset:
Muchos se preguntan quién nos puede garantizar que los robots no se volverán locos o nos harán mucho daño, o que no llegarán a ser algún día más inteligentes que nosotros... ¿Cuál sería tu respuesta a eso?

Alan Winfield:
Lo primero que diría es que realmente no tenemos que preocuparnos por eso a corto plazo. No
obstante, la pregunta tiene una perspectiva, o una dimensión, a largo plazo. Evidentemente, si la inteligencia artificial mejora y los robots logran ser mucho, mucho más inteligentes de lo que son ahora, entonces todo es posible… Creo firmemente que los expertos en robótica (de hecho, no solamente ellos, ¡también las personas normales y corrientes!) deberían empezar a plantearse qué tipo de robots inteligentes debemos incorporar a nuestras vidas, al mundo, y al futuro.

Eduard Punset:
Hay una pregunta relacionada con eso. El cerebro es realmente una especie de enjambre de
neuronas, ¿verdad?

Alan Winfield:
Sí, cierto.

Eduard Punset:
Hay miles de millones de neuronas que cooperan, que trabajan juntas. Y el cerebro, aun que consiste en neuronas individuales (bueno, no sé cuánto correspondería a cada una) comoconjunto es consciente, tiene conciencia. ¿Qué pasa con los robots? ¿Podrían llegar a tener conciencia…?

Alan Winfield:
¿…colectivamente?

Eduard Punset:
Sí, ¿podrían tener conciencia colectiva?

Alan Winfield:
Yo diría que no. El problema con la conciencia, por supuesto, es que no sabemos muy bien lo
que es. De modo que, si intentamos construir un robot consciente, hay un problema, que es
intentar construir algo que no entendemos en absoluto. Sin embargo, es una pregunta
importante, y hay varios grupos especializados en robótica en todo el mundo que se interesan
por la conciencia artificial.

Eduard Punset:
No me digan que no tiene gracia que, a mis 73 años (o casi), haya tenido que venir a Bristol, en el campus de la Universidad de West of England, pasar el día entero con unos robots pequeñísimos (me dicen que menos inteligentes que una rata) para aprender nada menos que de dónde sale, cómo apareció la cultura en el género humano. Resulta que han sido los robots los que nos están sugiriendo que el primer fundamento, la primera base de esta enorme inteligencia humana que hemos ido construyendo en los últimos 60.000 años, esto apareció cuando supimos, cuando aprendimos a imitarnos uno al otro; a imitar lo que el otro hacía. Y eso es (cuando les dejas solitos a los robots) lo que hacen. Si les dejamos 50.000 años (espero que no haga falta tanto tiempo), si les dejamos 50.000 años acabarán siendo, por lo menos, como nosotros.





David Hanson: Robots that "show emotion"









"Cuando la prensa empiece a publicar noticias al estilo Mi fantástico fin de semana con un robot sexual habrá colas como las que hubo para comprar el iPhone pero todavía más largas."

David Levy

No hay comentarios:

Publicar un comentario