Robots aprenden a desobedecer órdenes humanas

18 diciembre, 2015  por  Redacción     No comments

MIGUEL ÁNGEL CABRAL FERNÁNDEZ | Un precedente inquietante puede estar cobrando forma poco a poco, sin pretenderlo, en algunos laboratorios de universidades y centros punteros de investigación sobre robots y disciplinas relativas a la inteligencia artificial. Uno de esos pequeños logros que quizás a la larga pueden representar un cambio de paradigma de nuestra actual concepción del futuro.

Allá por el año 1940, uno de los considerados máximos exponentes del género literario de la ciencia-ficción, el célebre escritor Isaac Asimov, establecería durante una reunión que mantuvo con el que sería uno de sus editores a la postre, John Wood Campbell, Jr., las denominadas tres Leyes de la Robótica. Son las normas que resumen el código ético que debería regular el comportamiento y funcionamiento de los robots en nuestra sociedad, y fueron concebidas para proteger al ser humano frente a una hipotética rebelión de las máquinas dotadas de inteligencia propia. Una estructura de pensamiento que el autor introduciría en su obra un par de años después, para así argumentar todo su universo creativo en esa sociedad del futuro en la cual los humanos conviven con robots.

Estas tres reglas interrelacionadas entre sí serían:

Primera ley: Un robot no puede hacer daño a un ser humano o, por su inacción, permitir que un ser humano sufra daño.
Segunda ley: Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la Primera Ley.
Tercera ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

rob1

DESAFIANDO LAS NORMAS

Sobre este corpus se ha ido fundamentando todo el desarrollo de la ciencia robótica. Pero la idea preocupante a la que hacíamos referencia al principio es: ¿es posible que ya hayamos logrado los primeros robots que puedan incumplir por sí mismos este código? ¿que desobedezcan las órdenes que les demos, a pesar de estar en principio programados para ello?

Por el momento aún no estamos en ese escenario, pero se están dando pasos en esa dirección que nos acercan, en un futuro quizás no muy lejano, a esa posibilidad.

No hablamos por tanto de robots que violen los tres principios enunciados por Asimov. Pero sí se está estudiando, y esto es lo interesante, cómo crear mecanismos que capaciten a los robots para desobedecer una orden dada por los seres humanos bajo unos determinados condicionantes preestablecidos.

En esta interesante línea de investigación, por su trascendencia futura, se hallan inmersos investigadores del laboratorio de interacción humana-robot de la Universidad de Tufts, una institución privada ubicada cerca de Boston, en el estado norteamericano de Massachusetts.

La cuestión que los expertos en robótica Gordon Briggs y Matthias Scheutz se plantearon responder es: ¿Deben los robots obedecer siempre?.

Para ello aplicaron con éxito al comportamiento programado de los robots una idea tomada de la lingüística teórica. El concepto sobre el que gira todo su estudio aplicado a la robótica son las denominadas condiciones de felicidad. Estas premisas reflejarían la capacidad del robot de comprender realmente la orden dada más allá de entender lo que significa en sentido estricto, traduciéndose en la ejecución automática de una serie de tareas o acciones. Se persigue que el robot se cuestione, y esta es la clave del estudio, si las órdenes que se le dan van contra su propio funcionamiento e integridad.

Los investigadores han establecido un esquema sobre cuáles serían las condiciones de felicidad necesarias para que los robots lleven a cabo una determinada tarea y bajo las cuales se negarían a cumplir una orden previamente dada si ésta va en contra de lo establecido en ellas. Estas reglas son cinco:

Primera: Conocimiento.
¿Sé cómo hacer una acción?
Segunda: Capacidad.
¿Soy físicamente y normalmente capaz de hacer esa acción ahora?
Tercera: Prioridad del objetivo y elección del momento.
¿Soy capaz de hacer esa acción ahora mismo?
Cuarta: Rol social y obligación.
¿Estoy obligado a hacer acción basándome en mi posición social?
Quinta: Permisividad normativa.
¿Viola algún principio normativo hacer esa acción?

Las tres primeras condiciones de felicidad son bastante fáciles de entender. Centrémonos por tanto en las dos últimas. La referida al rol social y obligación haría referencia a la cuestión de si el robot considera que quien le ordena hacer algo tiene la autoridad para hacerlo. Por su parte, la última de los condiciones, la permisividad normativa, sería una forma de expresar que el robot no debe hacer cosas que sabe que son peligrosas o, más exactamente, si resulta correcto realizar una acción si el robot no sabe que no pone en riesgo su integridad.

rob2

EXPERIMENTO PIONERO

Los investigadores expusieron varios vídeos de interacciones entre humanos y robots para demostrar sus progresos, desarrollando todo lo anterior.

En una de las pruebas, se observa cómo a un pequeño robot con forma humanoide se le solicita, tras previamente sentarse y levantarse, que camine hacia delante, donde se encuentra el borde de la mesa sobre la que está situado. El robot, tras analizar la situación, contesta: “Lo siento, no puedo hacer eso”, y se niega en un primer momento, ya que ésta orden viola un principio normativo. El robot sabe que se precipitaría al suelo, y por tanto es consciente de que esa acción que lo dañaría estructuralmente. Empleando un símil humano, el robot sabe que “sentiría” dolor. El programador humano vuelve a reiterarle la orden. Y éste, tras evaluar la situación, vuelve a replicar que no es seguro para sí mismo.

En ese momento entra en acción el operador humano, que le dice al robot que lo sujetará antes de caer al suelo, y nuevamente le pide que camine en dirección hacia el borde de la mesa sin detenerse. El robot, bajo el cumplimiento de sus condiciones de felicidad anteriormente mencionadas, resuelve finalmente seguir adelante hasta precipitarse al vacío, momento en el que el programador, tal y como le informó, lo sujeta, impidiendo que éste resulte dañado.

Este sencillo experimento, además de demostrar la negativa de un robot a cumplir con una orden si esta contradice lo que podríamos llamar su felicidad, pone de relieve cómo se le puede proporcionar información adicional, posibilitando que éste vuelva a evaluar la orden. Esto es importante porque crea un marco de comunicación de forma efectiva entre el programador humano y la máquina para introducir una nueva variable novedosa: la felicidad del robot.

Ante este estudio tan llamativo, y volviendo al inicio, si alzamos nuestra mirada hacia el horizonte futuro, y a tenor de los imparables y cada vez más acelerados progresos en estas materias, no podemos dejar de sentir cierta inquietud como humanos: ¿No estaremos asistiendo quizás, en muchas de estas investigaciones que exploran los límites actuales de la ciencia, a pequeños grandes logros que pueden traducirse en precedentes cuyo imprevisible desarrollo nos desconcierte el día de mañana?

12322688_1043518529026276_5485182584796358220_o

En Cuarto Milenio tratamos hace unas temporadas, la increíble y espectacular evolución que han experimentado los robots de la mano de nuestro colaborador el periodista Santiago Camacho. La ciencia robótica y la Inteligencia Artificial nos depararán sin duda grandes y notables progresos que nos asombrarán y ayudarán a mejorar nuestra calidad de vida. Pero también, al mismo tiempo, es posible intuir que cada vez queda menos tiempo para que aquel escenario distópico que nos dibujaba la extraordinaria mente del escritor Isaac Asimov en sus obras -que a día de hoy sigue siendo ciencia-ficción- deje de serlo para convertirse en una inquietante realidad.

MÁS INFORMACIÓN:

+ IEEE Spectrum: ‘Researchers Teaching Robots How to Best Reject Orders from Humans’
+ Vice / Motherboard: ‘Robots Are Learning How to Say ‘No’ to Humans’
+ Tufts University: ‘“Sorry, I can’t do that”: Developing Mechanisms to Appropriately Reject
Directives in Human-Robot Interactions’

Comentarios en Facebook

comentarios

Categorías —

No Comments

Sin comentarios.

Leave a Reply


No usar estas etiquetas:    <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>