Upload
agustin-ciudad-ies-hernan-perez-del-pulgar-ciudad-real
View
431
Download
0
Embed Size (px)
Citation preview
Robótica & Inteligencia Artificial
Introducción: leyes de la robótica
El término “robótica” se popularizó por Isaac Asimov, quien la comenzó a utilizar en una de sus obras en
1942. Isaac Asimov fue escritor y científico ruso nacionalizado americano. Importante autor de ciencia-
ficción. Utilizó la palabra "Robótica" en su obra "Runaround", y se volvió muy popular a partir de una serie
de historias breves llamadas "I Robot" (Yo robot), escritas desde 1950. Se hizo muy conocido por su
referencia a los robots y a sus implicancias en el mundo del futuro. Fue el autor de las famosas leyes de la
robótica.
Asimov contempló la posibilidad de que unas máquinas sin leyes se podían poner en contra de su propio
creador -el llamado complejo de Frankenstein- y decidió dotar a sus robots de esas leyes que el robot de
cerebro positrónico -y no electrónico- debía seguir por fuerza y ante las cuales no podía oponerse.
Las Tres Leyes de la Robótica son:
1.- Un robot no puede lesionar a un ser humano, o, por medio de la inacción, permitir que un ser
humano sea lesionado.
2.- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes
entrasen en conflicto con la Primera Ley.
3.- Un robot debe proteger su propia existencia en la medida que esta protección no sea incompatible
con la Primera o Segunda Ley.
Las tres leyes aparecieron formuladas de forma explícita en el relato Sentido giratorio (1942). De esta
manera las reacciones de los robots son previsibles y controlables en base al estímulo recibido. El problema
está en los posibles potenciales de las leyes y a partir de ahí Asimov crea su relato. Asimov coloca a los
robots en situaciones 'especiales' donde los robots encuentran contradicciones en las órdenes o tienen que
tomar decisiones que afectan a una de las leyes en favor de otra, etc.
Estas tres leyes fueron ampliadas por Asimov en 1984 con una cuarta ley llamada Ley Cero que es
considerada la Ley definitiva: “Un robot no puede dañar a la humanidad, o a través de su inacción, permitir
que se dañe a la humanidad”. Por el momento no parecería posible la construcción de un robot con la
inteligencia y autonomía suficientes para enfrentarse por su propia voluntad a sus creadores, pero quizás en
un futuro cercano las cosas podrían cambiar. Posiblemente este haya sido el argumento que impulsó a
Asimov a crear estos "mandamientos", para incluir necesariamente en el robot del futuro.
Las implicaciones
La primera impresión que se pueden sacar a las leyes de Asimov es que, de poder estar implantadas en todo
sistema de control, nos proporcionarían la seguridad de que ningún ser humano nunca sufrirá daño debido a
la acción de ningún robot. Los sistemas de control actuales se están enmarcando dentro de la
"Inteligencia Artificial" pero acotados por los límites que el programador establece en dicho sistema. Los
robots actuales son utilizados para tareas relativamente precisas, con lo que las limitaciones que han de
establecerse dentro de su "comportamiento" se refieren a su área de actuación, velocidad de desplazamiento,
capacidad de carga, etc., limitaciones fácilmente determinables por el programador.
Si se desarrollase un robot que con un solo sistema de control pudiese ser utilizado para todo, con una
programación que se podría establecer como "Haz lo que se te ordene", debería entonces establecerse unas
limitaciones como las que las leyes de la robótica determinan, estaríamos de esta manera seguros de que no
produciría ningún accidente durante su trabajo. Los estudios sobre sistemas de Inteligencia Art ificial y
robótica van encaminados hacia ese concepto.
Curiosamente uno de los grandes recursos utilizados en la Ciencia-Ficción, en lo que se refieren a las leyes,
es el resultado de las acciones de robots cuando no obedecen ciegamente dichas leyes.
No hay que considerar que las leyes son totalmente fiables en cuanto al comportamiento que se pueda
esperar de un robot sujeto a ellas (puede que la segunda y tercera ley tengan la misma prioridad y sólo puede
salir del “circulo vicioso” actuando la primera ley).
Pero no nos engañemos, las leyes de la robótica no sólo son un seguro contra posibles agresiones, son las
leyes del perfecto sirviente: Protección total, sumisión absoluta e instinto de autoconservación. Por mucho
que se le dote al robot, sujeto a estas leyes, de "Inteligencia Artificial" o de incluso "Consciencia Artificial",
sólo será un esclavo que sueña con la libertad que dichas leyes le imprimen.
http://www.it.uc3m.es/~jvillena/irc/practicas/estudios/Robotica.pdf
¿Por qué los DRM violan las 3 leyes de la robótica?
Globalmente, los derechos de los consumidores e incluso los derechos humanos están siendo erosionados
porque algunos vendedores han descubierto que la propiedad intelectual y el copyright sirven para
vendernos varias veces lo mismo e infectan a sus productos electrónicos con mecanismos de DRM (Digital
Restrictions Management – Gestión de Derechos Digitales) y como el DMCA -- la ley que intenta proteger
los DRM -- es negociada secretamente por unos pocos sectores de unos pocos países fuertes para ser
impuesta al resto del planeta mediante tratados al margen de los parlamentos. Estas poderosas fuerzas están
reemplazando las tres leyes de la robótica (si existieron alguna vez) por otra cosa de principios insensatos.
Como lo describe Asimov, un robot debe dar la máxima prioridad a (L1) la protección de la vida humana,
(L2) a la obediencia a las órdenes humanas, (L3) a su propia protección, en ese orden, obligatoriamente.
Todo robot en la ciencia-ficción de Asimov está equipado con un cerebro positrónico que se vuelve loco, por
así decirlo, si en algún momento transgrede esas leyes. Esto representa para una sociedad que depende
profundamente de los robots la misma idea que lo que es un fusible en un aparato eléctrico. Imaginen la
amenaza que con que nos enfrentaríamos en un mundo lleno de robots sin esas leyes.
Excepto que no necesitan realmente imaginarlo. Estamos viviendo en ese mundo.
Lo que Asimov no predijo es que los robots serían controlados por software en vez de por circuitos
positrónicos. Esta pequeña desviación en su predicción respecto a lo que realmente ha sobrevenido después
ha cegado a la mayoría de profesionales de la informática (personas que suelen disfrutar de la ciencia ficción
de Asimov, por cierto).
Primero, pongamos a parte el malware que rompe la ley. Es concebible que haya siempre gente que rompa la
ley creado malos robots, tanto si la sociedad exige que las leyes robóticas sean parte de la ley general como
si no. Lo que nos interesa son los robots que son producidos conforme a las leyes legales en la sociedad.
Ahora considere unos pocos ejemplos de software existente y que viola la tercera y la segunda ley de la
robótica. El software suicida que se destruye a sí mismo con bombas temporales es una violación de la (L3),
y probablemente una violación de la (L2). Véase también "viodentia faiure4wn" o "kindle 1984" sobre
algunos casos de software desobedeciendo órdenes humanas.
Seguidamente, pasemos a modo ciencia-ficción por un momento y consideremos qué pasará en unas pocas
décadas. Suponga que su nieto compra un robot médico para cuidar de vuestro ritmo cardiaco vigilando y
ajustando algún implante médico. Se siente peor después de que empiecen sus cuidados y sospecha de que el
robot no está funcionando correctamente. Incluso ha oído hablar de algunas muertes relacionadas con este
modelo de robot.
O suponga que el hospicio (hablamos del futuro) donde usted vive compra un robot para efectuar terapias
físicas o incluso operaciones a sus huéspedes. Una nueva y más segura forma de efectuar esas funciones se
ha extendido en internet, y todos los huéspedes incluido usted desean intensamente adoptarla.
En cada caso, su nieto encuentra un robot experto capaz de examinar los robots y hacerles modificaciones a
su cerebro positrónico o a su software o a lo que sea, para eliminar su deficiencia y/o mejorar sus servicios,
por tanto su calidad de vida o incluso salvaros de una "muerte por código defectuoso". El experto pregunta
al robot para explorar y explicar el diseño de su circuito/software, y ayudar al experto a examinar y mejorar
sus circuitos/software.
En respuesta, un robot en el mundo de Asimov obedecería sin la más mínima duda (quizás tras verificar la
profesión del experto) de acuerdo con (L1) y (L2). Pero ¿que haría un robot en el mundo actual? Ya sabe,
nuestro mundo real, poblado por habitantes que son completamente inconscientes de las tres leyes de la
robótica y, simultáneamente, han sufrido lavados de cerebro por la propaganda de la "propiedad" intelectual,
el mundo en que el derecho de la "propiedad intelectual" está anulando el derecho a la propiedad física.
Acaso el robot obedecerá o es más probable que se niegue a cooperar citando el derecho al copyright como
su primera prioridad (L0), destruyéndose a si mismo y enviando una señal DMCA de estar siendo forzado a
un apagado por un experto, e intentando desafiar (L1), (L2) y (L3), todas de golpe.
Estamos viviendo en un mundo donde las tres leyes propuestas por Asimov no solo reciben caso omiso, y
negligente sino que de hecho por abuso que se hace de la ley de propiedad intelectual, son prácticamente
suprimidas por leyes problemáticas. Estamos poniéndonos a nosotros mismos a merced de los robots cuyos
comportamientos desafiantes contra nosotros están protegidos por esas leyes.
“Lo más triste de la vida actual es que la ciencia alcanza conocimientos más rápido que la sociedad alcanza
sabiduría”. Issac Asimov
http://hispalinux.es/node/727
Microsoft retira un robot que hizo comentarios racistas en Twitter Rosa Jiménez Cano. El País Madrid / San Francisco. 25 MAR 2016
Microsoft se ha visto obligada a retirar un robot de
Twitter porque en su interacción con seres humanos
elaboraba mensajes de contenido racista, sexista y
xenófobo. El chatbot (un sistema virtual capaz de
generar conversaciones que simulan el lenguaje
humano) ha sido diseñado por la compañía para
contestar preguntas y establecer conversaciones en
Twitter en un intento de captar el mercado de
millenials en Estados Unidos.
El plan de Microsoft ha fracasado en solo unas horas
de funcionamiento. Tay estaba dirigido a jóvenes de
entre 18 y 24 con los que pretendía establecer una
conversación "casual y juguetona" , pero no fue capaz de bregar con insultos racistas, bromas y comentarios
que, por ejemplo, endosaban teorías conspiratorias sobre los atentados del 11 de septiembre.
Entre otros comentarios, Tay parecía negar el Holocausto, apoyaba el genocidio, y llamó "puta estúpida" a
una mujer. Otra de sus contestaciones encajaba con la línea del candidato Donald Trump: "Vamos a poner
un muro en la frontera. México va a tener que pagarlo".
El sistema animaba a mantener conversaciones largas para conseguir las respuestas más inteligentes, pero
muchos usuarios optaron por preguntas polémicas, que fueron repetidas por Tay. Después de detectar los
fallos, el sistema se despidió anunciando que desconectaba para "absorber" todo lo que había pasado en "un
día ocupado".
En todos los casos vistos hasta ahora falla lo mismo, la generación de conversación. Aunque los bots
(programas informáticos que imitan el comportamiento de un humano) dan con la primera respuesta, les
falta seguir el contexto y generar una conversación de manera natural tomando como referencia las
respuestas anteriores.
Imagen de la cuenta de Tay en Twitter