24
1 REDES NEURONALES ARTIFICIALES ABSTRACT Computer technology is up till now one of the most quickly development field. Today we found computers in almost everywhere and depend on the area they develop several tasks. At the beginning computers applications were to relief the human being from repetitive tasks, after solve the urgent problems, researches started to see what other applications could have the computer. This was parallel with the develop of the neuroscience that learn how the human being brain works. When these groups began to work together artificial intelligence appear as a new real science, not as they thought only a issue of science fiction. This paper tries to expose the development of Artificial Intelligence since its beginning until now, when we talk about Artificial Neuronal Networks in our daily labor. Each step made by the researchers trying to find better ways to materialize what they have learned about the human being brain in a computer. Beginning with the first model of an artificial neuron until the develop of artificial neural networks and its applications in almost every area of knowledge. When we study these areas of knowledge we can see the connections that the scientist do in order to solve problems at low cost. Many researchers worked and are still working to improve ANNs and to make them more accuracy. 1. INTRODUCCION Desde el principio de los tiempos, el ser humano ha tenido inquietudes sobre como aprende y como este proceso puede ser mejorado y cuales pueden ser las posibles aplicaciones. Con el desarrollo de los computadores, paralelo al conocimiento cada vez más profundo de como el ser humano aprende, recuerda y razona se dio inicio a una carrera contra el tiempo para implementar las capacidades del cerebro humano a un computador. Esto enfrenta a los investigadores a muchas dificultades. Primero, aún no se conoce exactamente como funciona el cerebro humano y cuáles son las conexiones realizadas para la toma de decisiones, aunque es cierto que cada vez conocemos más, este conocimiento ha dejado a los científicos con mayores inquietudes. Aún así, sabiendo que quizás no se conoce sino el 10% de su funcionamiento se comenzó la difícil tarea de trasladar, aunque sea, algunas de las capacidades del cerebro a una máquina. No obstante, la tecnología ha avanzado a pasos agigantados, las redes neuronales artificiales aún no cumplen cabalmente las funciones para las cuales fueron desarrolladas, sin embargo, cada vez estamos más cerca de tener porcentajes más altos de exactitud. Las redes neuronales han tenido grandes desarrollos en la ultima década, permitiéndole a los investigadores mostrar verdaderos éxitos en áreas como los juegos, definición de estrategias de guerra (Tormenta del desierto), diagnostico de enfermedades, robótica, etc. Sin embargo, es un campo fértil de investigación para científicos de todas las áreas que desean y requieren que sus procesos sean mas económicos y mucho más eficientes; permitiendo así acercar cada vez más la tecnología a la gran masa de usuarios que puedan beneficiarse de esta.

Redes Neuronales

Embed Size (px)

DESCRIPTION

Ensayo de Redes neuronales Utilizando como guia la biografia descrita en el documento

Citation preview

  • 1REDES NEURONALES ARTIFICIALES

    ABSTRACTComputer technology is up till now one of the most quickly development field. Today we foundcomputers in almost everywhere and depend on the area they develop several tasks. At thebeginning computers applications were to relief the human being from repetitive tasks, after solvethe urgent problems, researches started to see what other applications could have the computer. Thiswas parallel with the develop of the neuroscience that learn how the human being brain works.When these groups began to work together artificial intelligence appear as a new real science, not asthey thought only a issue of science fiction.

    This paper tries to expose the development of Artificial Intelligence since its beginning until now,when we talk about Artificial Neuronal Networks in our daily labor. Each step made by theresearchers trying to find better ways to materialize what they have learned about the human beingbrain in a computer. Beginning with the first model of an artificial neuron until the develop ofartificial neural networks and its applications in almost every area of knowledge. When we studythese areas of knowledge we can see the connections that the scientist do in order to solve problemsat low cost. Many researchers worked and are still working to improve ANNs and to make themmore accuracy.

    1. INTRODUCCION

    Desde el principio de los tiempos, el ser humano ha tenido inquietudes sobre como aprende y comoeste proceso puede ser mejorado y cuales pueden ser las posibles aplicaciones. Con el desarrollo delos computadores, paralelo al conocimiento cada vez ms profundo de como el ser humano aprende,recuerda y razona se dio inicio a una carrera contra el tiempo para implementar las capacidades delcerebro humano a un computador. Esto enfrenta a los investigadores a muchas dificultades.Primero, an no se conoce exactamente como funciona el cerebro humano y cules son lasconexiones realizadas para la toma de decisiones, aunque es cierto que cada vez conocemos ms,este conocimiento ha dejado a los cientficos con mayores inquietudes. An as, sabiendo quequizs no se conoce sino el 10% de su funcionamiento se comenz la difcil tarea de trasladar,aunque sea, algunas de las capacidades del cerebro a una mquina.

    No obstante, la tecnologa ha avanzado a pasos agigantados, las redes neuronales artificiales an nocumplen cabalmente las funciones para las cuales fueron desarrolladas, sin embargo, cada vezestamos ms cerca de tener porcentajes ms altos de exactitud.

    Las redes neuronales han tenido grandes desarrollos en la ultima dcada, permitindole a losinvestigadores mostrar verdaderos xitos en reas como los juegos, definicin de estrategias deguerra (Tormenta del desierto), diagnostico de enfermedades, robtica, etc. Sin embargo, es uncampo frtil de investigacin para cientficos de todas las reas que desean y requieren que susprocesos sean mas econmicos y mucho ms eficientes; permitiendo as acercar cada vez ms latecnologa a la gran masa de usuarios que puedan beneficiarse de esta.

  • 22. INTELIGENCIA ARTIFICIAL

    Desde un punto de vista simple Inteligencia Artificial es la capacidad de un dispositivo dedesarrollar funciones que son normalmente asociadas con la inteligencia humana, tales comorazonamiento y optimizacin a travs de la experiencia. La Inteligencia Artificial aproxima losresultados del razonamiento humano mediante la organizacin y manipulacin exacta y heursticadel conocimiento.

    2.1. HISTORIA

    La humanidad ha sido siempre curiosa acerca de como la mente trabaja y fascinada por lasmaquinas inteligentes. Desde Talos, el gigante de la Iliada, Pinocho la marioneta de madera decuentos de hadas actuando como un nio real hasta los debates sobre la naturaleza de la mente, y lospensamientos de los filsofos europeos y matemticos, podemos ver como la gente desea entender yan crear inteligencia. Sin embargo, no fue sino hasta el periodo de la postguerra (1945 - 1956) quela Inteligencia Artificial emergi como un campo de amplia discusin. Lo que impulso elnacimiento de la Inteligencia Artificial fue la llegada de la tecnologa del computador. Pioneroscomo Marvin Minsky, John McCarthy, Allen Newell, y Herbert Simon dejaron a sus estudiantes ladefinicin del nuevo y prometedor campo. El desarrollo de la tecnologa moderna del computadorafecto tremendamente la investigacin en Inteligencia Artificial; muchos pioneros de InteligenciaArtificial se independizaron del enfoque tradicional de neuronas artificiales y decidieron que lospensamientos humanos podan ser emulados ms eficientemente con el computador digitalmoderno.

    La Conferencia de Dartmouth en 1956 empujo la Inteligencia Artificial a una nueva era. El periodocomprendido entre 1956 y 1963 representa el amanecer de una nueva ola de Inteligencia Artificial.Durante este periodo las principales investigaciones en Inteligencia realizadas en centros comoCarneige Mellon, MIT y su Laboratorio Lincoln, Stanford, y IBM concentraron su trabajo en dostemas principales. Primero, el intento de limitar la envergadura de las investigaciones en problemasde prueba y error a la iniciacin de proyectos tales como Lgica Terica (considerado como elprimer programa en Inteligencia Artificial). Despus, el estudio en aprendizaje en computadoresincluyo un proyecto sobre el juego de ajedrez, damas y programas de reconocimiento de patrones.Lenguajes especializados en procesamiento de listas como LISP, fueron desarrollados en MIT yotros sitios en 1958.

    A mediados de los aos 60, la Inteligencia Artificial se convirti en el objetivo principal de miles deestudios. Investigadores en Inteligencia Artificial utilizaron sus propias tcnicas de programacin ycomputadores mejorados en proseguir diversos proyectos. Sin embargo, la memoria de loscomputadores en esa poca era bastante limitada. Percepcin y representacin del conocimiento encomputadores se convirtieron en el tema de muchas investigaciones. Un proyecto representativo deInteligencia Artificial fue Mundo de Micro Bloques (Blocks Micro World) llevado a cabo en MIT.Enfrentados a una coleccin de figuras geomtricas, los robots miraban a travs de cmaras einterpretaban lo que haban visto. Entonces, estos cambian, manipulan bloques y expresan suspercepciones, actividades y motivaciones.

    Diferentes estudios relacionados con Inteligencia Artificiales se desarrollaron en especialidadesreconocidas durante los aos 70. Edward Feigenbaum fue el pionero en la investigacin en sistemas

  • 3expertos: Roger Schank promovi el anlisis del lenguaje con una nueva forma de interpretar laspalabras; Marvin Minksy impulso el campo de la representacin del conocimiento como un pasoulterior para la representacin de construcciones mentales; Douglas Lenat exploro el aprendizajeautomtico y la naturaleza de la heurstica; David Marr mejoro la visin del computador; los autoresdel lenguaje PROLOG presentaron un lenguaje de alta conveniencia para los investigadores deInteligencia Artificial. Las especializaciones de la Inteligencia Artificial en los aos 70 fortalecieronla columna vertebral de las teoras de Inteligencia Artificial, sin embargo, las aplicaciones eran anmuy prematuras.

    Los aos 80 fue un periodo de subidas y bajadas para la Inteligencia Artificial. La tradicin de anti -ciencia del publico fue mejorada grandemente despus de la aparicin de las pelculas de Guerra delas Estrellas y la popularidad de los computadores personales. XCON, el primer sistema expertoempleado en el mundo industrial simbolizo la semilla de una aplicacin real en InteligenciaArtificial. Dentro de los siguientes cuatro aos, XCON haba crecido diez veces con la inversin de50 aos hombre en el programa y con el notable hecho de ahorrar cerca de 40 millones de dlaresen pruebas y costos de manufactura para los clientes industriales. Seguido a este brillante suceso fueel boom de la Inteligencia Artificial. El nmero de grupos de Inteligencia Artificial se incrementotremendamente en 1985, 150 compaa gastaron juntas $1 billn de dlares en grupos internos deInteligencia Artificial. No obstante, el algoritmo fundamental de Inteligencia Artificial no erasatisfactorio todava. Como Marvin Minsky adverta al publico demasiado confiado, estosaparentemente inteligentes programas simplemente hacen las decisiones estpidas ms rpido.Ciertamente, esta advertencia presagio la cada de la industria de la Inteligencia Artificial a finalesde los aos 80. El reemplazo de maquinas LISP con microcomputadores estndar con softwareescrito en C en 1987 y la inestabilidad de los sistemas expertos causo una penosa transicin en laindustria. La industria de la Inteligencia Artificial se recupero a finales de los aos 80, peroaprendi de las experiencias pasadas y el pblico asumi una perspectiva ms conservadora. Otroimportante hecho es la mirada hecha hacia las redes neuronales con el trabajo realizado por ParallelDistributed Processing Study Group. En 1989, cerca de 300 compaas fueron fundadas paracompetir por un mercado en redes neuronales de $1 billn de dlares predicho para el fin del siglo.

    La guerra del golfo prsico a principios de los aos 90 probo la importancia de la investigacin enInteligencia Artificial para usos militares. Tareas tan simples como embalar y transportar avioneshasta la coordinacin de la operacin Tormenta del Desierto fueron asistidos por sistemasexpertos orientados en Inteligencia Artificial. Armas tan avanzadas como los misiles de crucerofueron equipados con tecnologas previamente estudiadas en diferentes campos de la InteligenciaArtificial como Robtica y mquinas de visin.

    La victoria de Deep Blue sobre el campen de ajedrez Kasparov en 1.996 encabezo un nuevoapogeo de los juegos en Inteligencia Artificial. Una nueva rama de sistemas expertos estaprosperando en Ingeniera Gentica, tal como el conocimiento del mapa del DNA humano(Bioinformatica) el cual requiere especializados algoritmos e investigadores en InteligenciaArtificial.

    2.2. LENGUAJES DE PROGRAMACION

    Los lenguajes de Inteligencia Artificial ms usados son:

    LISP: Desarrollado en los aos 50, es el primer lenguaje de programacin fuertemente asociado con

  • 4Inteligencia Artificial. LISP es un lenguaje de programacin funcional con extensiones procesales.LISP (LISt Procesor) fue especficamente diseado para el procesamiento de listas heterogneas tpicamente listas de smbolos. Las caractersticas de LISP que lo hacen tan atractivo incluyen elchequeo en tiempo de ejecucin run - time type checking, alto ordenamiento de funciones(funciones que tienen otras funciones como parmetros), administracin automtica de memoria yun ambiente interactivo.

    PROLOG: El segundo lenguaje asociado con Inteligencia Artificial es PROLOG, el cual fuedesarrollado en los aos 70 y esta basado en un orden lgico. PROLOG es de naturaleza declarativay tiene facilidades para explcitamente limitar el espacio de investigacin

    LENGUAJES ORIENTADOS A OBJETOS: Son una clase de lenguajes usados ms recientementepara la programacin en Inteligencia Artificial. Las caractersticas ms importantes de los lenguajesorientados a objetos son:

    Conceptos de objetos y mensajes.Los objetos atan datos y mtodos para manipular los datos.El remitente especifica lo que se debe hacer y el receptor decide como hacerlo.Herencia: Jerarqua de objetos donde los objetos heredan los atributos de la clase ms general deobjetos.Ejemplos de lenguajes orientados a objetos son: Smalltalk, Objective C, C++. Extensiones deorientacin a objetos de (CLOS - Common LISP Object System) y PROLOG (L&O - Lgica &Objetos)

    2.3. MAQUINAS DE TURING

    Durante el periodo comprendido entre 1.930 y 1.950 muchos investigadores debatan sobre que eray que no era computable. Muchos argumentaban sobre un enfoque formal de computacin. En1.937, Alan Turing, un matemtico britnico, quien es ahora conocido como el padre de lacomputacin y la Inteligencia Artificial busco una respuesta a este dilema. l construy la teora deuna maquina de Turing. Su teorema afirma que:

    Cualquier procedimiento efectivo (o algoritmo puede ser implementado a travs de una maquina deTuring).

    Figura 1. Dibujo Esquemtico de una Mquina de Turing

    Las mquinas de Turing son entidades matemticas abstractas que estn compuestas de una cinta,una cabeza de lectura - escritura y una maquina de estado finito. La cabeza puede leer o escribirsmbolos en la cinta, bsicamente un dispositivo de entrada/salida. La cabeza puede cambiar suposicin, movindose a la izquierda o la derecha. La mquina de estado finito es un procesadorcentral/memoria que mantiene el rastro de en cual de todos los posibles estados (conjunto finito)esta actualmente. Conociendo este estado, la maquina de estado finito puede determinar a que

  • 5estado cambiara, que smbolo escribir en la cinta y en que direccin debe moverse la cabeza(izquierda o derecha). Como se ve en la figura 1. La entrada a la cinta contiene un alfabeto finito (eneste caso 0, 1, blanco). De este modo, la maquina de Turing puede hacer tres posibles cosas:

    Puede escribir un nuevo smbolo en la posicin actual de la cinta.Puede asumir un nuevo estadoPuede mover la posicin de la a cabeza una posicin a la izquierda o la derecha.

    Esta mquina es capaz de realizar cualquier calculo. Este no es un teorema demostrable (an debeser demostrado) o un enfoque formal definitivo. Pero entendiendo lo que pueden computar lasmaquinas de Turing, podemos tener una mejor apreciacin del potencial de los sistemas deproduccin por computacin.

    Si un sistema de produccin puede emular una mquina de Turing, entonces se dice que puederealizar cualquier calculo. Los sistemas de produccin son simulados por computadores digitales detal manera si el enunciado hecho es verdadero, entonces los computadores digitales pueden realizarcualquier calculo.

    Un sistema de produccin contiene una estructura de control, una base de conocimiento y una basede datos global. A partir de esto se puede inferir como una simulacin puede ser realizada. En lamquina de Turing, la posicin de la cabeza, los smbolos escritos en la cinta y las posicionesrelativas deben ser almacenadas en la base de datos global del sistema de produccin. Las reglas deproduccin pueden ser generalizadas para cada estado y smbolo (de acuerdo a la mquina deTuring) y entonces realizar cualquiera de las tres acciones posibles. La estructura de control deberentonces escoger cualquier regla que satisfaga el estado actual del sistema.

    2.4. SISTEMAS EXPERTOS

    Un sistema experto es bsicamente un programa de computador que contiene una base deconocimientos y un conjunto de algoritmos o reglas que infieren nuevos hechos del conocimiento yde los datos entrantes.

    Un sistema experto es una aplicacin de Inteligencia Artificial que usa la base de conocimientos dela experiencia humana para ayudar a resolver problemas. El grado del problema a resolver estabasado en la calidad de los datos y de las reglas obtenidas de la experiencia humana. Estos sistemasson diseados para desempearse al nivel de un humano experto. Los sistemas expertos derivan susrespuestas corriendo la base de conocimientos a travs de un motor de inferencia, un software queinteractua con el usuario y procesa los resultados de las reglas y los datos en la base deconocimientos.

    Los sistemas expertos son usados en diversas aplicaciones, tales como diagnostico mdicoreparacin de equipos, anlisis de inversiones, planeacin financiera, planeacin de seguros,elaboracin de rutas para vehculos de entrega, asesoras para autoservicio de los clientes,licitaciones, control de produccin y entrenamiento, etc.

    3. REDES NEURONALES ARTIFICIALES

  • 6Los sistemas de Inteligencia Artificial son diseados y programados antes que entrenados ydesarrollados. Por naturaleza estos son algoritmos muy poderosos y funcionan bajo reglas. Lossistemas de Inteligencia Artificial han estado tpicamente confinados a tareas especificas comojuegos de ajedrez o demostracin de teoremas.

    DEFINICION: Las Redes Neuronales Artificiales (ANN por sus siglas en ingles, Artificial NeuralNetworks) son modelos cognoscitivos - computacionales basados en la estructura del sistemanervioso. La diferencia, o quizs la ventaja de las ANNs sobre los sistemas expertos es que estasson entrenadas en vez de programadas. Las ANNs aprenden y evolucionan en su ambiente, ms alldel cuidado y atencin de sus creativos. Aunque los sistemas expertos son capaces de emparejarpatrones y de aprender en algn grado, la cantidad de conocimiento que una ANN puedeexperimentar es ms grande, a la vez que ms flexible. Por ejemplo, si se considera el conocimientoque un ser humano posee, podra ser materialmente imposible desarrollar un sistema quealmacenara y manipulara informacin con esa capacidad (se tendra que especificar todo lo que unser humano sabe manualmente). El problema seria mucho ms accesible si se crea una maquinade aprendizaje learning machine. El aprendizaje es un pre - requisito importante para la menteartificial. Las ANNs son ampliamente usadas para el reconocimiento de patrones o clasificacin deproblemas.

    El trmino red neuronal, es de hecho un termino biolgico que corresponde a una coleccin deneuronas, una red que consiste de millones de neuronas conectadas en un arreglo en diferentesformas. Las ANNs intentan modelar las estructuras biolgicas en arquitectura y operacin. Aunquean hay un pequeo problema, an no se sabe exactamente como las redes neuronales biolgicastrabajan, por consiguiente, la arquitectura de las redes neuronales cambian en gran medida de untipo a otro. Lo que s se conoce es cual es la estructura bsica de una neurona.

    3.2. HISTORIA

    Partiendo de que las redes neuronales se fundamentan en el sistema nervioso humano la historia delas redes neuronales debera comenzar en los tiempos de Galeno en los que ya se tena unconocimiento considerable de ste. Sin embargo, los verdaderos avances en neurologa seprodujeron a partir de la segunda mitad del siglo XIX.

    Fue en 1943 cuando Warren McCulloch y Walter Pitts propusieron el clsico modelo de neurona enel que se basan las redes neuronales actuales. Seis aos despus, en 1949, en su libro TheOrganization of Behavior, Donald Hebb presentaba su regla de aprendizaje.

    En 1957, Frank Rosenblatt present el Perceptron, una red neuronal con aprendizaje supervisadocuya regla de aprendizaje era una modificacin de la propuesta por Hebb.

    El Perceptron trabaja con patrones de entrada binarios, y su funcionamiento, por tratarse de una redsupervisada, se realiza en dos fases: una primera en la que se presentan las entradas y las salidasdeseadas; en esta fase la red aprende la salida que debe dar para cada entrada. La principalaportacin del Perceptron es que la adaptacin de los pesos se realiza teniendo en cuenta el errorentre la salida que da la red y la salida que se desea. En la fase siguiente, de operacin, la red escapaz de responder adecuadamente cuando se le vuelven a presentar los patrones de entrada. Secrearon grandes expectativas sobre sus aplicaciones, que posteriormente se tornaron en grandecepcin cuando en 1969 Minsky y Papert demostraron las grandes limitaciones de esta red.

  • 7En los aos 60 se propusieron otros dos modelos, tambin supervisados, basados en el Perceptronde Rosenblatt denominados Adaline y Madaline. En estos, la adaptacin de los pesos se realizateniendo en cuenta el error, calculado como la diferencia entre la salida deseada y la dada por la red,al igual que en el Perceptron. Sin embargo, la regla de aprendizaje empleada es distinta. Se defineuna funcin error para cada neurona que da cuenta del error cometido para cada valor posible de lospesos cuando se presenta una entrada a la neurona. As, la regla de aprendizaje hace que la variacinde los pesos se produzca en la direccin y sentido contrario del vector gradiente del error. A estaregla de aprendizaje se la denomina Delta.

    La era moderna de las redes neuronales artificiales surge con la tcnica de aprendizaje depropagacin hacia atrs o Back Propagation. La estructura de las redes citadas anteriormente(Perceptron, Adaline y Madaline) consta de dos capas: una capa primera formada por unidades quedejan pasar la entrada y que no tienen aprendizaje, y una segunda capa formada por una o variasneuronas en el caso del Madaline. La contribucin de Minsky y Papert fue la de demostrar que unared del tipo Perceptron no es capaz de aprender todas las posibles combinaciones entre entradas ysalidas. La solucin del problema consiste en aadir capas intermedias de neuronas, introduciendode esta forma el problema de cmo ensear a estas capas intermedias. Aqu es donde tieneimportancia el algoritmo de propagacin hacia atrs, en ste se compara la salida real con la salidadeseada. La diferencia entre ambas constituye un error que se propaga hacia atrs desde la capa desalida hasta la de entrada permitiendo as la adaptacin de los pesos de las neuronas intermediasmediante una regla de aprendizaje Delta. Sin embargo, tambin tiene sus limitaciones.

    Posteriormente se han desarrollado otros modelos que permiten un aprendizaje no supervisadocomo el mapa auto-organizativo de Kohonen, los basados en la Teora de Resonancia Adaptativa(ART) de Grossberg y Carpenter, o los modelos de control motor de Bullock, Gaudiano yGrossberg, entre otros.

    3.3. LA NEURONA BIOLOGICA

    La neurona bsica consiste de synapses, el soma, el axn y las dendritas. Las synapses sonconexiones entre las neuronas - estas no son conexiones fsicas, son pequeas grietas que permiten alas seales elctricas saltar de una neurona a otra. Estas seales elctricas son entonces pasadas atravs del soma el cual realiza alguna operacin y le enva su propia seal elctrica al axn. El axnentonces distribuye esta seal a las dendritas; las cuales llevan la seal a los diferentes synapses, yel ciclo se repite.

    El cerebro humano contiene aproximadamente 12 billones de clulas nerviosas o neuronas. Cadaneurona tiene de 5.600 a 60.000 conexiones dendrticas provenientes de otras neuronas. Estasconexiones transportan los impulsos enviados desde otras neuronas y estn conectadas a lamembrana de la neurona. Cada neurona tiene una salida denominada axn. El contacto de cada axncon una dendrita se realiza a travs de la sinapsis. Tanto el axn como las dendritas transmiten laseal en una nica direccin.

  • 8Figura 2. La Neurona

    La sinapsis consta de un extremo presinptico de un axn conectado a un extremo postsinptico deuna dendrita, existiendo normalmente entre stos un espacio denominado espacio sinptico.

    Figura 3. Sinapsis

    Las neuronas son elctricamente activas e interactan entre ellas mediante un flujo de corrienteselctricas locales. Estas corrientes se deben a diferencias de potencial entre las membranas celularesde las neuronas. Un impulso nervioso es un cambio de voltaje que ocurre en una zona localizada enla membrana celular. El impulso se transmite a travs del axn hasta llegar a la sinapsis,produciendo la liberacin de una sustancia qumica denominada neurotransmisor que se esparce porel fluido existente en el espacio sinptico. Cuando este fluido alcanza el otro extremo transmite laseal a la dendrita. Los impulsos recibidos desde la sinapsis se suman o restan a la magnitud de lasvariaciones del potencial de la membrana. Si las contribuciones totales alcanzan un valordeterminado (alrededor de 10 milivoltios) se disparan uno o ms impulsos que se propagarn a lolargo del axn.

    Aunque todava no est del todo claro, parece que este impulso se inicia en la conexin entre elaxn y la membrana, su amplitud y velocidad dependen del dimetro del axn y su frecuencia delnmero de disparos que se efecten.

  • 93.4. LA NEURONA ARTIFICIAL

    Las redes neuronales artificiales basan su funcionamiento en las redes neuronales biolgicas, sinembargo, muchos de los aspectos de este maravilloso procesador son an un misterio. En particularel elemento bsico del cerebro humano es un tipo de clula, que a diferencia del resto del cuerpo noparece regenerarse. Por que este tipo de clula es la nica parte del cuerpo que no es lentamentereemplazada, se asume que estas son las clulas que nos proveen las habilidades para recordar,pensar y aplicar experiencias pasadas a cada accin. Estas clulas, 100 billones de ellas sonconocidas como neuronas. Cada una de estas neuronas pueden conectarse hasta con 200.000neuronas, no obstante, de 1.000 a 10.000 es lo tpico. El poder de la mente humana viene delnmero total de estos componentes bsicos y de las mltiples conexiones entre ellas. Las neuronasindividuales son complicadas, tienen un gran numero de partes, subsistemas y mecanismos decontrol. Hay cientos de clases diferentes de neuronas, dependiendo del mtodo de clasificacinusado. Estas neuronas y sus conexiones forman un proceso que no es binario, no es estable y no essincrnico. En resumen, no se parecen a los computadores actualmente disponibles o a las redesneuronales. Las redes neuronales artificiales - por analoga con el cerebro humano se denominaneurona a cada una de estas unidades de procesamiento. Tratan de replicar nicamente loselementos ms bsicos de este complicado, verstil y poderoso organismo. Lo hacen en una formamuy primitiva, pero para el ingeniero de software que esta tratando de resolver los problemas, lacomputacin neuronal nunca intento replicar el cerebro humano sino de encontrar nuevas formas deresolver problemas.

    Uno de los primeros modelos matemticos de una neurona fue el propuesto por McCulloch y Pittsen 1.943 y es en el que se basan las redes neuronales actuales.

    En este modelo cada neurona consta de un conjunto de entradas, Si, y una sola salida Sj. Cadaentrada i est afectada por un coeficiente que se denomina peso y que se representa por la letra wij(grficamente suele representarse como una media luna). El subndice i refleja que el peso afecta ala entrada i, y el subndice j que se trata de la neurona j.

    La cantidad calculada como la suma del producto de cada entrada multiplicada por su respectivopeso se denomina activacin de la neurona, xj. La salida, Sj, de la neurona es una funcin de laactivacin de sta. Es decir:

    xj = Sum Si wij + Qj iSj = f(xj)

  • 10

    Figura 4. Modelo de McCulloch y Pitts

    Donde el trmino Qj es un valor umbral, y f(xj) es una funcin de la activacin de la neurona.

    Por ejemplo, en una de las primeras arquitecturas neuronales, el Perceptron, se utiliza la siguientefuncin de salida:

    Sj = 0 si xj < hSj = 1 si xj >= h

    Donde la constante h se denomina umbral. Esta es una funcin de salida de tipo binaria, y existenotras de tipo lineal puro, lineal con umbral, y sigmoidea, entre otras.

    En este modelo tan sencillo puede verse que la activacin de la neurona depende del valor quetomen los pesos y las entradas, de forma que la variacin de stos origina distintas salidas para lamisma entrada a la neurona. En la prctica, los pesos de las neuronas se modifican sometiendo a lared a un entrenamiento, permitiendo que la red realice una funcin determinada. Esta es lacaracterstica que diferencia a una red neuronal de una mquina algortmica clsica: una redneuronal no se programa, se educa. La red es capaz de retener y asociar el conocimiento a travsde la adaptacin de los pesos de las neuronas siguiendo una regla de aprendizaje. Estas reglas sonecuaciones expresadas en funcin de las entradas y salidas de las neuronas y describen la forma devariacin de los pesos. En definitiva, son el instrumento empleado por las neuronas para adaptarse ala informacin que se le presenta.

    3.5. Formas de aprendizaje

    Una vez una red ha sido estructurada para una aplicacin particular, la red esta lista para serentrenada. Para iniciar este proceso los pesos iniciales son elegidos aleatoriamente. Entonces, elentrenamiento, o aprendizaje comienza. Hay dos enfoques de entrenamiento supervisado y nosupervisado. El entrenamiento supervisado involucra un mecanismo para proveer a la red con lasalida deseada evaluando manualmente el desempeo de la red o suministrado la salida deseada conla entrada. El entrenamiento no supervisado es aquel en que la red tiene que entender las entradassin ayuda de la salida.

    La mayora de las redes utilizan entrenamiento supervisado. Entrenamiento no supervisado es usado

  • 11

    para realizar caracterizaciones iniciales en entradas.

    3.5.1. Entrenamiento supervisado

    En el entrenamiento supervisado, las entradas y las salidas son suministradas. La red entoncesprocesa las entradas y compra este resultado con el producto deseado. Los errores han sidopropagados hacia atrs en el sistema, haciendo que el sistema ajuste los pesos que controlan la red.Este proceso ocurre una y otra vez cada vez que los pesos son lanzados. El grupo de datos quehabilita el entrenamiento es llamado grupo de entrenamiento. Durante el entrenamiento de una redel mismo grupo de datos es procesado tantas veces como los pesos sean refinados.

    Las redes comerciales actuales desarrollan paquetes que proveen herramientas para monitorear quetan bien una red neuronal artificial converge en la habilidad de predecir la respuesta correcta. Estasherramientas toleran que el proceso de entrenamiento sea continuo por varios das, parandonicamente cuando el sistema alcance algn punto estadstico deseado o preciso. No obstante,algunas redes nunca aprenden; esto puede ser por que los datos de entrada no contienen informacinespecifica del producto de cual es producto deseado es derivado. Igualmente, las redes noconvergen si no hay suficientes datos que habiliten completar el aprendizaje. Idealmente, debehaber suficientes datos que parte de los datos puedan ser retenidos como una prueba. Muchas redesde mltiples capas con mltiples nodos son capaces de memorizar datos. Para monitorear la red paradeterminar si el sistema esta solamente memorizando datos en alguna forma insignificante, elentrenamiento supervisado debe retener un grupo de datos para ser usado para probar si el sistemaha experimentado este entrenamiento. (La memorizacin es evitada por que no tiene muchoselementos de procesamiento.

    Si una red simplemente no puede resolver los problemas, el diseador debe revisar las entradas, lassalidas, el nmero de capas, el nmero de elementos por capa, las conexiones entre las capas, lasuma, transferencia y funciones de entrenamiento e incluso los pesos iniciales en s mismos. Estoscambios requieren crear una red exitosa que constituya un proceso donde el arte de las redesneuronales ocurra.

    Otra parte que gobierna la creatividad del diseador son las reglas de entrenamiento. Existenmuchas leyes (algoritmos) usados para implementar la retroalimentacin adaptable requerida paraajustar los pesos durante el entrenamiento. La tcnica ms comn es la propagacin hacia atrs delerror, ms conocida como propagacin hacia atrs (backpropagation). Empero, entrenamiento no essolo una tcnica, esta involucra tacto y un anlisis concienzudo que asegure que la red no esta sobreentrenada. Inicialmente, una red neuronal artificial se configura a s misma con tendencias generalesestadsticas de los datos. Despus, continua aprendiendo acerca de otros aspectos de los datos loscuales pueden ser falsos desde un punto de vista general.

    Cuando finalmente el sistema ha sido correctamente entrenado, y no es necesario entrenamientoadicional, los pesos pueden, si se desea, ser congelados. En algunos sistemas esta red final esentonces transformada en hardware para que sea ms rpida. Otros sistemas no se ponen bajo llavemientras estn en produccin.

    3.5.2. Entrenamiento no Supervisado o Adaptativo

  • 12

    El otro tipo de entrenamiento es llamado entrenamiento no supervisado. En este tipo deentrenamiento la red es abastecida con entradas pero no con las salidas deseadas. El sistema debeentonces decidir que caractersticas usara para agrupar los datos de entrada. Esto es a menudollamado redes auto organizadas.

    Actualmente, las redes no supervisadas no son bien entendidas. Esta adaptacin al ambiente es lapromesa de lo que la ciencia ficcin posibilita, robots que continuamente aprenden hasta encontrarnuevas situaciones y nuevos ambientes. La vida esta llena de situaciones donde conjuntos deentrenamiento exactos no existen. Algunas de estas situaciones involucran acciones militares dondenuevas tcnicas de combate y nuevas armas pueden ser encontradas. Por este aspecto imprevisto dela vida y el deseo humano de estar preparado, continua la investigacin y la esperanza en estecampo. An hoy, la mayora de las redes neuronales trabajan en sistemas con aprendizajesupervisado. El aprendizaje supervisado esta alcanzando resultados.

    Uno de los lideres en aprendizaje no supervisado es Tuevo Kohonen, ingeniero elctrico de laUniversidad Tecnolgica de Helsinky. El ha desarrollado una red auto organizada, algunas vecesllamada auto asociada, que aprende sin conocer la respuesta correcta. Esta es una red de aspectodiferente que contiene una sola capa con muchas conexiones. Los pesos para las conexiones debenser inicializados y las entradas deben ser normalizadas. Las neuronas son acondicionadas paracompetir en el ganador toma todo.

    Kohonen continua sus investigaciones en redes estructuradas en forma diferente a las estndar, conenfoque de propagacin hacia atrs y realimentacin.

    3.6. IMPLEMENTACION ELECTRONICA DE REDES NEURONALES ARTIFICIALES

    En los paquetes de software actualmente disponibles las neuronas artificiales son llamadaselementos de procesamiento y tienen muchas mas capacidades que la neurona artificial descritaanteriormente.

    Figura 5. Modelo de un Elemento de Procesamiento

    En la Figura 5, las entradas al elemento de procesamiento comienzan desde la esquina superiorizquierda. El primer paso para cada una de estas entradas es ser multiplicadas por su respectivo

  • 13

    factor de peso (W(n)) y ser alimentadas en la funcin de suma, la cual generalmente nicamentesuma estos productos. Empero, muchos tipos de operaciones pueden ser seleccionadas. Estasoperaciones pueden producir diferentes valores los cuales son entonces propagados hacia adelante,valores tales como el promedio, el mximo, el mnimo, los valores OR, los valores AND, etc.Adems, muchos productos desarrollados comercialmente permiten al ingeniero de software crearsus propias funciones de suma a travs de rutinas codificadas en un lenguaje de alto nivel (C esnormalmente soportado). Algunas veces la funcin de suma es ms complicada por la adicin deuna funcin de activacin la cual permite a la funcin de suma operar en una forma sensible altiempo.

    As, el producto de la funcin suma es enviado a la funcin de transferencia. Esta funcin convierteel numero en una salida real a travs de algn algoritmo. Este es el algoritmo que toma la entrada ylo convierte de 0 a 1, de -1 a 1, o algn otro numero. Las funciones de transferencia que songeneralmente soportadas son sigmoid, seno, tangente hiperblica, etc. La funcin de transferenciatambin puede escalar la salida o controlar este valor a travs de umbrales. El resultado de lafuncin de transferencia es dirigido al elemento de procesamiento. Un ejemplo de como la funcinde transferencia trabaja es mostrado en la figura 6.

    La funcin de transferencia sigmoid toma el valor de la funcin suma, llamado sum en la figura 6 ylo convierte en un valor entre 0 y 1.

    Figura 6. Funcin de Transferencia Sigmoid

    Finalmente, el elemento de procesamiento esta lista para producir el resultado de esta funcin detransferencia. Esta salida es entonces la entrada para otros elementos de procesamiento, o para unaconexin de salida, segn lo definido por la estructura de la red.

    Todas las redes neuronales artificiales son construidas a partir de este bloque bsico el elementode procesamiento o la neurona artificial. Es en la variedad y en las diferencias fundamentales deestos bloques de construccin lo que parcialmente causa que la implementacin de una red neuronalsea un arte.

    3.7. EL PERCEPTRON

    La estructura de un perceptron es muy simple. Hay dos entradas de informacin, una diagonal, yuna salida. Un diagrama esquemtico simple se muestra en la figura 4 - los dos crculos en el fondoson las entradas de informacin, la casilla negra es el diagonal, y el crculo en la tapa es la salida.Observe que las entradas de informacin y las salidas de un perceptron son binarias - esto es que

  • 14

    nicamente pueden ser 0 o 1.

    Figura 7. El Perceptron

    Cada uno de las entradas de informacin y del diagonal es conectado con el perceptron principal porun peso. Un peso es generalmente un nmero verdadero entre 0 y 1. Cuando el nmero de la entradase alimenta en el perceptron, es multiplicado por el peso correspondiente. Despus de esto, lospesos todos se suman y se alimentan a travs de un delimitador. Bsicamente, un delimitador es unafuncin que define los valores de umbral para lanzar el perceptron. Por ejemplo, el delimitadorpodra ser:

    Por ejemplo, si la suma de la entrada de informacin multiplicada por los pesos es -2, la funcindelimitadora volvera 0. Si la suma fuera 3, la funcin volvera 1.

    La manera en que un perceptron aprende distinguir modelos es a travs de la modificacin de suspesos - el concepto de una regla de aprendizaje debe ser introducido. En el perceptron, la forma mscomn de aprender es ajustando los pesos por la diferencia entre la salida deseada y la salida real.Matemticamente, esto puede ser escrito:

    El aprendizaje de un perceptron esta garantizado, segn lo indicado por el Teorema de laConvergencia del Perceptron que indica que si una solucin puede ser implementada, la regla deaprendizaje encontrar la solucin en un numero finito de pasos.

    3.7.1. Perceptron Separable Linealmente

    Los perceptrones pueden solucionar solamente los problemas donde las soluciones se puedendividir por una lnea - esto se llama separacin lineal. Para entender el concepto de separacinlineal, se muestra la funcin en la figura 5. Se asume que se ejecuta la funcin a travs de unperceptron, y los pesos convergen en 0 para el diagonal, y 2, -2 para las entradas de informacin. Sicalculamos el valor neto (la suma cargada) conseguimos:

    Y = X1 ^ X2X1 X2 Y0 0 00 1 01 0 1

  • 15

    1 1 0

    Note, que X0 es el diagonal, X1 y X2 son las entradas. Ahora, si x1 se traza en el eje Y, y X2 en el ejeX, la ecuacin se puede reducir a x1 = x2. El vector de verdad trazado en el eje, y la lnea que elperceptron deriva es:

    X1 y (no X2)El perceptron traza tan correctamente una lnea que divide los dos grupos de puntos. Este no tieneque ser solamente una lnea, puede ser un hiperplano que divide puntos en el espaciotridimensional, o ms all. Aqu es donde falla la potencia del perceptron, pero tambin dondefallan sus limitaciones. Por ejemplo, los perceptrones no pueden solucionar las funciones binariasde XOR o de NXOR.

    3.7.2. Perceptrones de varias capas

    El problema de XOR puede ser solucionado usando tres perceptrones. Esto no es sinnimo conredes de mltiples capas. La clave est en dividir problema de XOR en tres diversas porciones - sterequiere pocas matemticas booleanas. Sabiendo que ' ^ ' es Y, y ' v ' es O, NO es ' ':

    El problema ahora se analiza en tres diferentes problemas lineales. Por ende, los resultados de lasprimeras dos ecuaciones puedan ser usados en un tercer problema lineal. De las tres ecuacionesfinales, se puede ver que los perceptrones se veran as:

  • 16

    Figura 8. Perceptron de Mltiples Capas

    Para probar que trabaja, se miran los pesos (as como las lneas) en los cuales el perceptronconverge. El primer perceptron balancea en {0.1.1} (recuerde, el primer elemento es el diagonal), elsegundo en {2, -1, -1} y del final en {-1, 1, 1}. Las tres ecuaciones son como sigue:

    La ecuacin final es la ecuacin que cubre el tercer perceptron que toma la salida de los primerosdos como sus entradas. Los dos grficos serian:

    Figura 9. Capas del Perceptron

    Las lneas de la capa 1 cortan el grfico en tres porciones. La regin del centro entre las dos lneases donde el perceptron se generaliza como ' 1 ', las otras reas por encima y por debajo de las lneasse generalizan como ' 0 '. La capa 2, muestra cmo el tercer perceptron crea el resultado final. Lasdos lneas en la capa 1 no se intersectan en el origen, as que el tercer perceptron nunca tiene queocuparse de l.

    3.8. BACKPROPAGATION

  • 17

    En una red de una sola capa, cada neurona ajusta sus pesos segn la salida que se espera de ella, y lasalida dada. Esto se puede expresar matemticamente por la regla del delta de Perceptron:

    Esto no es muy til cuando la red se extiende a mltiples capas, para explicar problemas no lineales.Cuando se ajusta el peso en cualquier parte de la red, debera ser capaz de decir que efecto tendrsobre la red completa. Para hacer esto se debe mirar la funcin de error derivada con respecto a esepeso.

    El problema es que el delimitador para el perceptron no es continuo, as como no diferenciable. Lafuncin alternativa usada con redes de propagacin hacia atrs es la funcin Sigmoid.

    Figura 10. Funcin Sigmoid

    Se pueden ver las mesetas de la funcin hacia fuera en 0 y 1 en el eje Y, tambin cruza el eje Y en0,5, haciendo la funcin ntida y relativamente fcil distinguir. Por lo tanto, con las matemticasnecesarias, se obtiene esta frmula del ajuste del peso:

    Esta es una frmula bastante compleja, as que para facilitar el cmputo y para hacer el proceso msiterativo, se aproxima a:

    sta es la frmula usada para todas las neuronas en la red, pero, cmo la red calcula el error para lascapas ocultas? Las capas ocultas requieren una definicin diferente d (delta). Es necesario saberel efecto sobre la salida de la neurona si un peso cambia. Por lo tanto, se necesita saber la derivadadel error con respecto al peso. Se ha probado que para una neurona q en una capa oculta p, el delta

  • 18

    es:

    Al final de la ecuacin esta p+1. Cada valor del delta para las capas ocultas requiere que el valordel delta para la capa siguiente a l est calculado. As pues, en una red de tres capas, el delta de lacapa de salida es calculado primero usando el primer delta de la formula mostrada. Este valor esusado para calcular las capas ocultas restantes usando la frmula mostrada arriba. De aqu elnombre de propagacin hacia atrs, el error desde la capa de salida es lentamente propagado haciaatrs a travs de la red.

    3.8. REDES AUTO-ORGANIZATIVAS

    Existen muchos investigadores que requieren viabilidad biolgica en los modelos de redesneuronales propuestos. Esto es cierto, dado que estas redes intentan emular el cerebro. Esgeneralmente aceptado que perceptrones, propagacin hacia atrs y muchas otras tcnicas noviables biolgicamente, pero con la demanda de probabilidad biolgica creciendo, el concepto deredes auto-organizativas se convierte en un punto de inters entre los investigadores. Las redes auto-organizativas pueden ser supervisadas y no-supervisadas, y tenan cuatro propiedades adicionales:

    Cada peso es representativo para una cierta entradaLos patrones de entrada son mostrados para todas las neuronas simultneamente.Aprendizaje competitivo la neurona con la respuesta ms larga es escogida.Una forma subsecuente de reforzar la respuesta. O simultneamente si el hardware lo permite.

    El aprendizaje no supervisado le permite a la red encontrar su propia energa mnima, y porconsiguiente una forma ms eficiente en la asociacin de patrones; esta es a la larga una desventajapara el programa o el usuario que debe interpretar la salida.

    Una de las redes auto-organizativas ms conocidas son las redes Kohonen. El trmino Kohonen esligeramente engaoso, por que el investigador Teuvo Kohonen de hecho investigo muchas clases deredes, pero muy pocas son llamadas redes Kohonen.

    La red Kohonen es una red n-dimensional, donde n es el nmero de entradas. La arquitecturaesquemtica de una red de este tipo seria:

    Figura 11. Red Kohonen (Vista Parcial)

    La figura 11 nicamente muestra una pequea parte de la red, pero se puede ver como cada neurona

  • 19

    tiene la misma entrada, y hay una nica salida por neurona. Para ayudarnos a visualizar el problemade mapear los pesos a coordenadas, imagine que todos los pesos fueron inicializados por un valoraleatorio. Los pesos son entonces graficados en un grfico cartesiano estndar. Inmediatamenteadyacente (arriba, abajo, izquierda, derecha) las neuronas son entonces conectadas por lneas. Estaslneas son puramente esquemticas y no representan nada en la red en si misma, no hay conexionesentre las neuronas en la red. El objetivo de la red es crecer hasta llenar el grfico en alguna formaordenada.

    1 2

    3 4

    1: 0 Iteraciones 2: 15 Iteraciones3: 100 Iteraciones 4: 350 Iteraciones

    Figura 12. Red Kohonen. Plano Cartesiano

    En el cuadro nmero 1 la imagen muestra menos puntos esto es solo atribuible a que a red mapeamltiples pesos en la misma coordenada para comenzar, pero se diversifican a medida que la redaprende ms.

    3.8.1. Reglas y Operacin

    La idea bsica detrs de la red Kohonen es el aprendizaje competitivo. Las neuronas sonpresentadas con las entradas, las cuales calculan su neto (suma de los pesos). Y la neurona con lamagnitud de salida ms cercano es escogida para recibir entrenamiento adicional. Esteentrenamiento, no afecta la neurona, pero s a sus vecinas.

    Cmo se elige la neurona con magnitud de salida ms cercana? Una forma es encontrar la distanciaentre la neurona y el neto de la neurona.

    Cuando es aplicado a una red de 2 dimensiones, este se reduce a formula estndar de distanciaEuclidiana. De aqu que la salida ms cercana represente el patrn de entrada, esto es la neurona con

  • 20

    la distancia ms pequea.

    Interpretar las redes de Kohonen es bastante sencillo dado que nicamente una neurona dispararpor conjuntos de entrada despus del entrenamiento. Por consiguiente, este es un caso declasificacin de salidas. Por ejemplo, si esta neurona dispara, haga esto si este grupo de neuronasdispara haga esto. etc.

    Las redes de Kohonen han sido exitosamente aplicadas al reconocimiento de voz, y pueden sertambin aplicada a juegos expandiendo las dimensiones (nmero de entradas) se puede crearmapas mucho ms complicados.

    USO DE LAS REDES NEURONALES

    Las redes neuronales artificiales experimentan el cambio que ocurre cuando un concepto abandonael ambiente acadmico y es arrojado al duro mundo de usuarios que simplemente quieren obtenerun trabajo realizado. Muchas de las redes que estn siendo diseadas son estadsticamente msprecisas pero todava tienen un mal sabor con los usuarios que esperan que los computadoresresuelvan todos sus problemas. Estas redes pueden tener de un 85% a un 90% de precisin.Infortunadamente, pocas aplicaciones toleran ese nivel de error.

    Mientras los investigadores continan trabajando de mejorar la exactitud de sus creaciones,algunos exploradores estn hallando usos para la tecnologa actual. Revisando el estado del arte, esduro no sentirse abatido por las brillantes promesas manchadas por las realidades no alcanzadas.Actualmente, las redes neuronales no son la interface de usuario que traduce las palabras eninstrucciones para una maquina, pero algn da lo harn. Algn da, VCRs, sistema de seguridad,CD Players sern simplemente activados por voz. Las pantallas tctiles (touch screens) y la edicinde voz reemplazaran los editores de palabra de hoy, mientras conducen las hojas electrnicas y lasbases de datos a un nivel de uso ms placentero para casi todo el mundo. Pero por ahora, las redesneuronales estn simplemente entrando al mercado en nichos donde la precisin estadstica esvaliosa mientras aguarda que esta llegue.

    De hecho muchos de estos nichos involucran aplicaciones donde las respuestas son vagas. Laaprobacin de crditos es una. Las instituciones financieras hacen ms dinero haciendo la menorcantidad de prestamos malos que puedan alcanzar. Sistemas que tienen un 90% de precisinpueden ser mejorados en el proceso de seleccin actual. Efectivamente, algunos bancos han probadoque el ndice de fallas en la aprobacin de prestamos es menor que aquellos aprobados por losmejores sistemas tradicionales. Tambin, algunas compaas de tarjetas de crdito estn usandoredes neuronales en sus procesos de seleccin.

    El novedoso mtodo de investigar el futuro analizando experiencias pasadas ha generado suspropios problemas. Uno de estos problemas es suministrar una razn detrs de la respuesta generadapor el computador, es decir, por que una aplicacin de crdito fue denegada. Algunas personas hanincluso comenzado ha llamar al uso de redes neuronales ingeniera vud. Explicar como una redaprende y por que esta recomienda una decisin en particular ha sido difcil. Para facilitar el procesode justificacin, algunas redes neuronales facilitan programas cual fue la entrada dominante para elproceso de decisin.

  • 21

    PROCESAMIENTO DEL LENGUAJE

    El procesamiento del lenguaje abarca una amplia variedad de aplicaciones. Estas aplicacionesincluyen conversin a texto de una locucin, traduccin automtica del lenguaje, sistemas deseguridad activados por voz, transcripcin automtica, ayudas para los sordos, ayudas para losdiscapacitados fsicos que responden a los comandos de voz y procesamiento del lenguaje natural.

    Muchas compaas y universidades estn investigando como un computador a travs de las ANNspuede ser programado para responder a los comandos hablados. Las potenciales recompensaseconmicas son una proverbial mina de oro. Si esta capacidad puede ser reducida a un chip, y esechip puede ser parte de casi cualquier dispositivo electrnico vendido hoy, literalmente cientos demillones de estos chips pueden ser vendidos.

    Esta capacidad mgica debera ser capaz de entender ms de 50.000 palabras hablas normalmente.Actualmente, de acuerdo con las publicaciones acadmicas, muchas de las redes neuronales capacesde or son entrenadas para solo un locutor.

    4.2. RECONOCIMIENTO DE CARACTERES

    El reconocimiento de caracteres es otra rea en la cual las redes neuronales estn suministrandosoluciones. Algunas de estas soluciones van ms all de simples curiosidades acadmicas. HNCInc., comercializa una red neuronal que puede reconocer caracteres impresos a mano a travs de unescner. Este producto puede tomar tarjetas, como tarjetas de crdito y colocar aquellas quereconoce en una base de datos. Este producto ha estado en el mercado por ms de dos aos y tieneun 98% de exactitud para los nmeros, un poco menos para los caracteres alfabticos. Actualmente,el sistema es construido para resaltar caracteres por dejado de un cierto porcentaje de probabilidadde estar bien as que el usuario puede llenar lo que el computador no. Este producto lo estn usandobancos, instituciones financieras y compaas de tarjetas de crdito.

    Las investigaciones ms grandes en el campo de reconocimiento de caracteres apunta a escasear loscaracteres orientales en un computador. Hoy en da, estos caracteres requieren 4 o 5 caracteres decomputador para cada uno.

    COMPRESION DE IMAGENES

    Un gran numero de estudios ha sido realizado para probar que las redes neuronales pueden realizaren tiempo real la compresin y descompresin de datos. Estas redes son auto asociativas y puedenreducir 8 bits de datos a 3 y reversar este proceso para llegar a los 8 bits otra vez.

    4.4. RECONOCIMIENTO DE PATRONES

    El reconocimiento de patrones tiene un gran numero de aplicaciones. Por ejemplo, deteccin debombas en equipajes en los aeropuertos, desde pequeas variaciones, patrones desde dentro desalida de sensores especializados. Otra aplicacin se refiere a como se ha entrenado una redneuronal de propagacin hacia atrs que recolecta datos en salas de emergencia de personas quesienten que estn experimentando un ataque cardiaco para suministrar una probabilidad de un

  • 22

    ataque real versus una falsa alarma.

    No obstante, el uso ms importante de las redes neuronales como reconocedor de patrones estadentro del campo conocido como control de calidad. Un gran numero de aplicaciones para calidadautomatizada estn en uso. Estas aplicaciones estn diseadas para encontrar que una parte en cien ouna parte en mil es defectuosa. Los inspectores humanos se tornan fatigados o se distraen. Lossistemas ahora evalan empalmes de soldadura, soldaduras, cortes y pegados. Un fabricante deautos tiene un sistema prototipo que evala el color de la pintura. Este sistema digitaliza grficos denuevos lotes de pintura para determinar si tienen el matiz correcto

    Otra rea donde las redes neuronales estn siendo construidas para el reconocimiento de patrones esen procesadores para sensores. Muchos de estos sensores existen dentro de la industria de defensa.Estos sensores toman datos de cmaras, sistemas sonares, grabadoras ssmicas y sensoresinfrarrojos. Estos sensores son usados para reconocimiento de fenmenos.

    Procesamiento de seales

    La promesa de las redes neuronales para el procesamiento de seales ha resultado en un numero deexperimentos en varios laboratorios universitarios. Las redes neuronales han probado ser capaces defiltrar el ruido. MADALINE de Widrow fue la primera red aplicada al problema del mundo real.Este elimina el ruido de las lneas telefnicas.

    Otra aplicacin es un sistema que pueda detectar fallas de encendido solamente por el sonido. Estesistema, desarrollado por Odin Corp, trabaja en maquinas de ms de 10.000 r.p.m. El sistema Odinsatisface los mandatos que decan que para 1.994 todos los automviles deberan detectar fallas deencendido en tiempo real.

    FINANCIERO

    Las redes neuronales estn haciendo grandes inversiones en el mundo financiero. Banca, tarjetas decrdito e instituciones financieras tratan con desiciones que no son bien definidas. Estas involucranaprendizaje y tendencias estadsticas.

    El proceso de aprobacin de crditos involucra el llenado de formas las cuales pueden habilitar a unoficial de crdito a tomar una decisin. Los datos de estas formas estn ahora siendo usados porredes neuronales las cuales han sido entrenadas con datos a partir de decisiones pasadas. De hecho,para cumplir con los requerimientos del gobierno de USA para explicar el porque las aplicacionesson negadas, estos paquetes tienen informacin de cual entrada o combinacin de entradas, pesams en la decisin.

    Las redes neuronales estn siendo usadas en todos los mercados financieros acciones, bonos,moneda internacional, y comoditis.

    SERVO CONTROL

    Sistemas complejos de control es una de las reas ms prometedoras de las redes neuronales.Muchos sistemas convencionales de control modelan la operacin de todos los procesos del sistema

  • 23

    con un conjunto de formulas. Para hacer a la medida un sistema para un proceso especifico estasformulas deben ser manualmente afinadas. Este es un proceso intensivo que involucra el ajuste deparmetros hasta que una combinacin produce los resultados deseados. Las redes neuronalesofrecen dos ventajas. Primero, el modelo estadstico de una red neuronal es ms complejo que unsimple grupo de formulas, permitindole manejar una amplia variedad de condiciones de operacinsin necesidad de ser reafinado. Segundo, por que las redes neuronales aprenden de s mismas y norequieren sistemas expertos de control, solo suficientes datos histricos para que puedan adecuar elentrenamiento.

    Cmo determinar si una aplicacin es candidata para una red neuronal

    Las redes neuronales estn siendo aplicadas en un gran numero de reas. Estas aplicaciones puedenser agrupadas en dos grandes categoras, las cuales ofrecen una prueba para cualquiera que esteconsiderando usar redes neuronales.

    Bsicamente, una aplicacin potencial debe ser examinada con los siguientes dos criterios.

    Puede una red neuronal reemplazar las tecnologas existentes en un rea donde pequeos cambiosen desempeo puedan resultar en un gran impacto econmico? Ejemplo:

    Aprobacin de prestamosAprobacin de tarjetas de crditoPredicciones del mercado financieroAnlisis de clientes potenciales para la creacin de listas de correo.

    Puede una red neuronal ser usada en un rea donde las tecnologas actuales han probado serinadecuadas para hacer un sistema viable?

    Reconocimiento de VozReconocimiento de Caracteres

    La implementacin ms sencilla de redes neuronales ocurre en soluciones donde estas pueden serconectadas en forma compatible con los sistemas existentes.

    CONCLUSIONES

    La aplicacin real de las Redes Neuronales Artificiales esta en una etapa temprana que permitir eldesarrollo y evolucin de diferentes reas del conocimiento que acepten el riesgo y tomen lainiciativa de ser pioneros. El xito se encuentra en la formacin de grupos interdisciplinarios queencuentren un objetivo comn y que entiendan las necesidades de unos junto con las limitaciones deotros. Sin embargo, las investigaciones en este campo son de por si, costosas y solo en pasesdesarrollados con una amplia visin de futuro se vern los frutos pronto. Los pasessubdesarrollados deberemos no perderle el pulso a los nuevos avances manteniendo un constantecontacto con esta tecnologa.

    El entendimiento precario del funcionamiento neurolgico del cerebro humano y el intento deimplementaron de este conocimiento parcial en un sistema automtico desencadenan problemas con

  • 24

    soluciones no eficientes para campos no tan complicados como reconocimiento ptico de caracteresy de voz, donde se pensara que la tecnologa ha alcanzado un producto final. Lo que nos lleva a laconclusin que alcanzar un sistema de aprendizaje automtico similar al que desarrolla el cerebrohumano esta todava a muchas horas hombre de investigacin.

    BIBLIOGRAFIA

    http://www.generation_5.org/essays.shtml at the forefront Artificial Intelligence

    The Data & Analysis Center for Software, DACS, Artificial Neural Networks Technology, RomeLaboratory, 1992. http://www.dacs.dtic.mil/

    Carol E. Brown y Daniel E. O'Leary, Introduction To Artificial Intelligence And Expert Systems,College of Bussiness, Oregon State University.http://www.bus.orst.edu/faculty/brownc/es_tutor/es_tutor.htm

    Redes Neuronales Artificiales, Universidad Politecnica de Madrid. http://www.gc.ssr.upm.es/

    Artificial Neural Networks, California Scientific Software, USAhttp://www-personal.usyd.edu.au/~desm/prod-ann.html

    Neural Computation. http://www.neuralmachines.com/prism/neural.html

    Stanford Encyclopedia of Philosophy. http://plato.stanford.edu/

    Neusciences. http://www.ncs.co.uk/

    Neuron Technology. http://www.neuron.co.uk