3
Robótica & Inteligencia Artificial Introducción: leyes de la robótica El término “robótica” se popularizó por Isaac Asimov, quien la comenzó a utilizar en una de sus obras en 1942. Isaac Asimov fue escritor y científico ruso nacionalizado americano. Importante autor de ciencia- ficción. Utilizó la palabra "Robótica" en su obra "Runaround", y se volvió muy popular a partir de una serie de historias breves llamadas "I Robot" (Yo robot), escritas desde 1950. Se hizo muy conocido por su referencia a los robots y a sus implicancias en el mundo del futuro. Fue el autor de las famosas leyes de la robótica. Asimov contempló la posibilidad de que unas máquinas sin leyes se podían poner en contra de su propio creador -el llamado complejo de Frankenstein- y decidió dotar a sus robots de esas leyes que el robot de cerebro positrónico -y no electrónico- debía seguir por fuerza y ante las cuales no podía oponerse. Las Tres Leyes de la Robótica son: 1.- Un robot no puede lesionar a un ser humano, o, por medio de la inacción, permitir que un ser humano sea lesionado. 2.- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley. 3.- Un robot debe proteger su propia existencia en la medida que esta protección no sea incompatible con la Primera o Segunda Ley. Las tres leyes aparecieron formuladas de forma explícita en el relato Sentido giratorio (1942). De esta manera las reacciones de los robots son previsibles y controlables en base al estímulo recibido. El problema está en los posibles potenciales de las leyes y a partir de ahí Asimov crea su relato. Asimov coloca a los robots en situaciones 'especiales' donde los robots encuentran contradicciones en las órdenes o tienen que tomar decisiones que afectan a una de las leyes en favor de otra, etc. Estas tres leyes fueron ampliadas por Asimov en 1984 con una cuarta ley llamada Ley Cero que es considerada la Ley definitiva: “Un robot no puede dañar a la humanidad, o a través de su inacción, permitir que se dañe a la humanidad”. Por el momento no parecería posible la construcción de un robot con la inteligencia y autonomía suficientes para enfrentarse por su propia voluntad a sus creadores, pero quizás en un futuro cercano las cosas podrían cambiar. Posiblemente este haya sido el argumento que impulsó a Asimov a crear estos "mandamientos", para incluir necesariamente en el robot del futuro. Las implicaciones La primera impresión que se pueden sacar a las leyes de Asimov es que, de poder estar implantadas en todo sistema de control, nos proporcionarían la seguridad de que ningún ser humano nunca sufrirá daño debido a la acción de ningún robot. Los sistemas de control actuales se están enmarcando dentro de la "Inteligencia Artificial" pero acotados por los límites que el programador establece en dicho sistema. Los robots actuales son utilizados para tareas relativamente precisas, con lo que las limitaciones que han de establecerse dentro de su "comportamiento" se refieren a su área de actuación, velocidad de desplazamiento, capacidad de carga, etc., limitaciones fácilmente determinables por el programador. Si se desarrollase un robot que con un solo sistema de control pudiese ser utilizado para todo, con una programación que se podría establecer como "Haz lo que se te ordene", debería entonces establecerse unas limitaciones como las que las leyes de la robótica determinan, estaríamos de esta manera seguros de que no produciría ningún accidente durante su trabajo. Los estudios sobre sistemas de Inteligencia Artificial y robótica van encaminados hacia ese concepto. Curiosamente uno de los grandes recursos utilizados en la Ciencia-Ficción, en lo que se refieren a las leyes, es el resultado de las acciones de robots cuando no obedecen ciegamente dichas leyes. No hay que considerar que las leyes son totalmente fiables en cuanto al comportamiento que se pueda esperar de un robot sujeto a ellas (puede que la segunda y tercera ley tengan la misma prioridad y sólo puede salir del “circulo vicioso” actuando la primera ley).

Inteligencia artificial

Embed Size (px)

Citation preview

Page 1: Inteligencia artificial

Robótica & Inteligencia Artificial

Introducción: leyes de la robótica

El término “robótica” se popularizó por Isaac Asimov, quien la comenzó a utilizar en una de sus obras en

1942. Isaac Asimov fue escritor y científico ruso nacionalizado americano. Importante autor de ciencia-

ficción. Utilizó la palabra "Robótica" en su obra "Runaround", y se volvió muy popular a partir de una serie

de historias breves llamadas "I Robot" (Yo robot), escritas desde 1950. Se hizo muy conocido por su

referencia a los robots y a sus implicancias en el mundo del futuro. Fue el autor de las famosas leyes de la

robótica.

Asimov contempló la posibilidad de que unas máquinas sin leyes se podían poner en contra de su propio

creador -el llamado complejo de Frankenstein- y decidió dotar a sus robots de esas leyes que el robot de

cerebro positrónico -y no electrónico- debía seguir por fuerza y ante las cuales no podía oponerse.

Las Tres Leyes de la Robótica son:

1.- Un robot no puede lesionar a un ser humano, o, por medio de la inacción, permitir que un ser

humano sea lesionado.

2.- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes

entrasen en conflicto con la Primera Ley.

3.- Un robot debe proteger su propia existencia en la medida que esta protección no sea incompatible

con la Primera o Segunda Ley.

Las tres leyes aparecieron formuladas de forma explícita en el relato Sentido giratorio (1942). De esta

manera las reacciones de los robots son previsibles y controlables en base al estímulo recibido. El problema

está en los posibles potenciales de las leyes y a partir de ahí Asimov crea su relato. Asimov coloca a los

robots en situaciones 'especiales' donde los robots encuentran contradicciones en las órdenes o tienen que

tomar decisiones que afectan a una de las leyes en favor de otra, etc.

Estas tres leyes fueron ampliadas por Asimov en 1984 con una cuarta ley llamada Ley Cero que es

considerada la Ley definitiva: “Un robot no puede dañar a la humanidad, o a través de su inacción, permitir

que se dañe a la humanidad”. Por el momento no parecería posible la construcción de un robot con la

inteligencia y autonomía suficientes para enfrentarse por su propia voluntad a sus creadores, pero quizás en

un futuro cercano las cosas podrían cambiar. Posiblemente este haya sido el argumento que impulsó a

Asimov a crear estos "mandamientos", para incluir necesariamente en el robot del futuro.

Las implicaciones

La primera impresión que se pueden sacar a las leyes de Asimov es que, de poder estar implantadas en todo

sistema de control, nos proporcionarían la seguridad de que ningún ser humano nunca sufrirá daño debido a

la acción de ningún robot. Los sistemas de control actuales se están enmarcando dentro de la

"Inteligencia Artificial" pero acotados por los límites que el programador establece en dicho sistema. Los

robots actuales son utilizados para tareas relativamente precisas, con lo que las limitaciones que han de

establecerse dentro de su "comportamiento" se refieren a su área de actuación, velocidad de desplazamiento,

capacidad de carga, etc., limitaciones fácilmente determinables por el programador.

Si se desarrollase un robot que con un solo sistema de control pudiese ser utilizado para todo, con una

programación que se podría establecer como "Haz lo que se te ordene", debería entonces establecerse unas

limitaciones como las que las leyes de la robótica determinan, estaríamos de esta manera seguros de que no

produciría ningún accidente durante su trabajo. Los estudios sobre sistemas de Inteligencia Art ificial y

robótica van encaminados hacia ese concepto.

Curiosamente uno de los grandes recursos utilizados en la Ciencia-Ficción, en lo que se refieren a las leyes,

es el resultado de las acciones de robots cuando no obedecen ciegamente dichas leyes.

No hay que considerar que las leyes son totalmente fiables en cuanto al comportamiento que se pueda

esperar de un robot sujeto a ellas (puede que la segunda y tercera ley tengan la misma prioridad y sólo puede

salir del “circulo vicioso” actuando la primera ley).

Page 2: Inteligencia artificial

Pero no nos engañemos, las leyes de la robótica no sólo son un seguro contra posibles agresiones, son las

leyes del perfecto sirviente: Protección total, sumisión absoluta e instinto de autoconservación. Por mucho

que se le dote al robot, sujeto a estas leyes, de "Inteligencia Artificial" o de incluso "Consciencia Artificial",

sólo será un esclavo que sueña con la libertad que dichas leyes le imprimen.

http://www.it.uc3m.es/~jvillena/irc/practicas/estudios/Robotica.pdf

¿Por qué los DRM violan las 3 leyes de la robótica?

Globalmente, los derechos de los consumidores e incluso los derechos humanos están siendo erosionados

porque algunos vendedores han descubierto que la propiedad intelectual y el copyright sirven para

vendernos varias veces lo mismo e infectan a sus productos electrónicos con mecanismos de DRM (Digital

Restrictions Management – Gestión de Derechos Digitales) y como el DMCA -- la ley que intenta proteger

los DRM -- es negociada secretamente por unos pocos sectores de unos pocos países fuertes para ser

impuesta al resto del planeta mediante tratados al margen de los parlamentos. Estas poderosas fuerzas están

reemplazando las tres leyes de la robótica (si existieron alguna vez) por otra cosa de principios insensatos.

Como lo describe Asimov, un robot debe dar la máxima prioridad a (L1) la protección de la vida humana,

(L2) a la obediencia a las órdenes humanas, (L3) a su propia protección, en ese orden, obligatoriamente.

Todo robot en la ciencia-ficción de Asimov está equipado con un cerebro positrónico que se vuelve loco, por

así decirlo, si en algún momento transgrede esas leyes. Esto representa para una sociedad que depende

profundamente de los robots la misma idea que lo que es un fusible en un aparato eléctrico. Imaginen la

amenaza que con que nos enfrentaríamos en un mundo lleno de robots sin esas leyes.

Excepto que no necesitan realmente imaginarlo. Estamos viviendo en ese mundo.

Lo que Asimov no predijo es que los robots serían controlados por software en vez de por circuitos

positrónicos. Esta pequeña desviación en su predicción respecto a lo que realmente ha sobrevenido después

ha cegado a la mayoría de profesionales de la informática (personas que suelen disfrutar de la ciencia ficción

de Asimov, por cierto).

Primero, pongamos a parte el malware que rompe la ley. Es concebible que haya siempre gente que rompa la

ley creado malos robots, tanto si la sociedad exige que las leyes robóticas sean parte de la ley general como

si no. Lo que nos interesa son los robots que son producidos conforme a las leyes legales en la sociedad.

Ahora considere unos pocos ejemplos de software existente y que viola la tercera y la segunda ley de la

robótica. El software suicida que se destruye a sí mismo con bombas temporales es una violación de la (L3),

y probablemente una violación de la (L2). Véase también "viodentia faiure4wn" o "kindle 1984" sobre

algunos casos de software desobedeciendo órdenes humanas.

Seguidamente, pasemos a modo ciencia-ficción por un momento y consideremos qué pasará en unas pocas

décadas. Suponga que su nieto compra un robot médico para cuidar de vuestro ritmo cardiaco vigilando y

ajustando algún implante médico. Se siente peor después de que empiecen sus cuidados y sospecha de que el

robot no está funcionando correctamente. Incluso ha oído hablar de algunas muertes relacionadas con este

modelo de robot.

O suponga que el hospicio (hablamos del futuro) donde usted vive compra un robot para efectuar terapias

físicas o incluso operaciones a sus huéspedes. Una nueva y más segura forma de efectuar esas funciones se

ha extendido en internet, y todos los huéspedes incluido usted desean intensamente adoptarla.

En cada caso, su nieto encuentra un robot experto capaz de examinar los robots y hacerles modificaciones a

su cerebro positrónico o a su software o a lo que sea, para eliminar su deficiencia y/o mejorar sus servicios,

por tanto su calidad de vida o incluso salvaros de una "muerte por código defectuoso". El experto pregunta

Page 3: Inteligencia artificial

al robot para explorar y explicar el diseño de su circuito/software, y ayudar al experto a examinar y mejorar

sus circuitos/software.

En respuesta, un robot en el mundo de Asimov obedecería sin la más mínima duda (quizás tras verificar la

profesión del experto) de acuerdo con (L1) y (L2). Pero ¿que haría un robot en el mundo actual? Ya sabe,

nuestro mundo real, poblado por habitantes que son completamente inconscientes de las tres leyes de la

robótica y, simultáneamente, han sufrido lavados de cerebro por la propaganda de la "propiedad" intelectual,

el mundo en que el derecho de la "propiedad intelectual" está anulando el derecho a la propiedad física.

Acaso el robot obedecerá o es más probable que se niegue a cooperar citando el derecho al copyright como

su primera prioridad (L0), destruyéndose a si mismo y enviando una señal DMCA de estar siendo forzado a

un apagado por un experto, e intentando desafiar (L1), (L2) y (L3), todas de golpe.

Estamos viviendo en un mundo donde las tres leyes propuestas por Asimov no solo reciben caso omiso, y

negligente sino que de hecho por abuso que se hace de la ley de propiedad intelectual, son prácticamente

suprimidas por leyes problemáticas. Estamos poniéndonos a nosotros mismos a merced de los robots cuyos

comportamientos desafiantes contra nosotros están protegidos por esas leyes.

“Lo más triste de la vida actual es que la ciencia alcanza conocimientos más rápido que la sociedad alcanza

sabiduría”. Issac Asimov

http://hispalinux.es/node/727

Microsoft retira un robot que hizo comentarios racistas en Twitter Rosa Jiménez Cano. El País Madrid / San Francisco. 25 MAR 2016

Microsoft se ha visto obligada a retirar un robot de

Twitter porque en su interacción con seres humanos

elaboraba mensajes de contenido racista, sexista y

xenófobo. El chatbot (un sistema virtual capaz de

generar conversaciones que simulan el lenguaje

humano) ha sido diseñado por la compañía para

contestar preguntas y establecer conversaciones en

Twitter en un intento de captar el mercado de

millenials en Estados Unidos.

El plan de Microsoft ha fracasado en solo unas horas

de funcionamiento. Tay estaba dirigido a jóvenes de

entre 18 y 24 con los que pretendía establecer una

conversación "casual y juguetona" , pero no fue capaz de bregar con insultos racistas, bromas y comentarios

que, por ejemplo, endosaban teorías conspiratorias sobre los atentados del 11 de septiembre.

Entre otros comentarios, Tay parecía negar el Holocausto, apoyaba el genocidio, y llamó "puta estúpida" a

una mujer. Otra de sus contestaciones encajaba con la línea del candidato Donald Trump: "Vamos a poner

un muro en la frontera. México va a tener que pagarlo".

El sistema animaba a mantener conversaciones largas para conseguir las respuestas más inteligentes, pero

muchos usuarios optaron por preguntas polémicas, que fueron repetidas por Tay. Después de detectar los

fallos, el sistema se despidió anunciando que desconectaba para "absorber" todo lo que había pasado en "un

día ocupado".

En todos los casos vistos hasta ahora falla lo mismo, la generación de conversación. Aunque los bots

(programas informáticos que imitan el comportamiento de un humano) dan con la primera respuesta, les

falta seguir el contexto y generar una conversación de manera natural tomando como referencia las

respuestas anteriores.

Imagen de la cuenta de Tay en Twitter