Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México




descargar 304.79 Kb.
títuloLas redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México
página4/7
fecha de publicación05.12.2015
tamaño304.79 Kb.
tipoDocumentos
med.se-todo.com > Economía > Documentos
1   2   3   4   5   6   7

Redes Neuronales Supervisadas17


Algunos de los modelos re redes neuronales más populares son: en primer lugar; son la clase de redes unidireccionales organizadas en capas (feed-forward) y con aprendizaje supervisado, que son empleadas como clasificadores de patrones y estimadores de funciones. Estos modelos en la literatura son denominados “mapping neural networks”, o redes neuronales para representación (ajuste) funcional.
Dentro de este grupo de redes se analizará al “Perceptrón simple, Adalina y Perceptrón multicapa”. El popular algoritmo de aprendizaje llamado retro propagación (backpropagation, BP), y se aplica precisamente al último modelo. El perceptrón multicapa con aprendizaje BP (o alguna de sus variantes) es el modelo neuronal más empleado en las aplicaciones prácticas (se estima que el 70% de los desarrollos con redes neuronales hacen uso de sus variantes.


        1. Redes Unidireccionales


Muchos problemas del mundo real pueden interpretarse desde el punto de vista de la estimación o aproximación funcional, en el sentido de tratar de encontrar la función que a partir de un conjunto de entradas proporciona la salida deseada. Por ejemplo, si queremos desarrollar un reconocedor de caracteres manuscritos el objetivo será encontrar un sistema que implemente la función que asocia la imagen de una determinada letra o carácter escrito con la clase que pertenece.
Otro caso es el de la predicción de cotizaciones bursátiles, en el que mediante una red neuronal se trataría de encontrar la función que relaciona diversas variables de entrada (cotizaciones previas, tipos de interés, inflación, etc.) con la actual cotización en bolsa de una determinada entidad o empresa.


        1. El Asociador Lineal: Aprendizaje Hebbiano


Este modelo, mediante una transformación lineal, asocia un conjunto de patrones de entrada a otros de salida. En este sentido, el Asociador Lineal consta únicamente de una capa de neuronas lineales, cuyas entradas las denotamos por “x” y sus salidas por “y”, vector que constituye además la respuesta a la red neuronal. Asimismo, denotaremos a la matriz de pesos sinápticos; cada fila de W contiene los pesos de una neurona wi .


Asociador lineal (función de activación identidad)

La operación del asociador lineal es simplemente:

O bien,

Por tanto, cada neurona “i” del asociador lineal lleva a cabo la suma ponderada de las entradas con sus pesos sinápticos. Es decir, dentro del marco de neurona estándar se calcula el potencial sináptico por medio de la convencional suma ponderada, cantidad a la que aplica finalmente una función de activación tipo identidad.
El asociador deberá de aprender a asociar “p” pares de entrada-salida, , ajustando sus pesos “W” de modo que ante un cierto patrón de entrada xμ responda con tμ, y que ante entradas similares, , responda con salidas también próximas , (con cantidades pequeñas). El problema se centra en encontrar la matriz de pesos W óptima en el sentido descrito. Para ello, en el campo de las redes neuronales normalmente se hace uso de una regla de aprendizaje, que a partir de las entradas y de las salidas deseadas (en el caso de aprendizaje supervisado), proporcione el conjunto óptimo de pesos W.


        1. El Perceptrón Simple


Este modelo neuronal fue introducido por Rosenblatt a finales de los años cincuenta. La estructura del perceptrón se inspira en las primeras etapas de procesamiento de los sistemas sensoriales de los animales (ejemplo, el de la visión), en los cuales la información va atravesando sucesivas capas de neuronas, que realizan un procesamiento progresivamente de más alto nivel.
El Perceptrón simple es un modelo unidireccional, compuesto por dos capas de neuronas, una sensorial o de entradas, y otra de salida. La operación de una red de este tipo, con “n” neuronas de entrada y “m” de salida, se puede expresar como:


Perceptrón simple y función de transferencia de su neurona

Las neuronas de entrada no realizan ningún cómputo, únicamente envían la información (en principio consideraremos señales directas discretas {0, +1}) a las neuronas de salida (en el modo de entrada estas neuronas de entrada representaban información ya procesada, no datos directamente procedentes del exterior). La función de activación de las neuronas de la capa de salida es de tipo escalón. Así, la operación de un perceptrón simple puede escribirse:

Con “H” (.) la función de Heaviside o escalón. El perceptrón puede utilizarse tanto como clasificador, como para la representación de funciones booleanas, pues su neurona es esencialmente de tipo “MacCulloch-Pitts, de salida binaria. La importancia histórica del perceptrón radica en su carácter de dispositivo entrenable, pues el algoritmo de aprendizaje del modelo introducido por Rosenblatt, permite determinar automáticamente los pesos sinápticos que clasifican un conjunto de patrones a partir de un conjunto de ejemplos etiquetados.
Un perceptrón permite realizar tareas de clasificación. Cada neurona del perceptrón representa una determinada clase, de modo que dado un vector de entrada, una cierta neurona responde con “0” si no pertenece a la clase que representa, y con un 1 si sí pertenece. Es fácil ver que una neurona tipo perceptrón solamente permite discriminar entre dos clases “linealmente separables” (es decir, cuyas regiones de decisión pueden ser separadas mediante una única condición lineal o hiperplano). Sea una neurona tipo perceptrón de dos entradas, x1 y x2, con salida y, cuya operación se define, por tanto:

Regiones de decisión en el plano


O bien

Si consideramos x1 y x2 situadas sobre los ejes de abscisas y ordenadas en el plano, la condición:

Representa una recta (hiperplano, si trabajamos con “n” entradas) que divide el plano (espacio) en dos regiones, aquéllas para las que la neurona proporciona una salida “0” o “1”, respectivamente (como la figura de arriba). Luego, efectivamente, una neurona tipo perceptrón representa un discriminador lineal, al implementar una condición lineal que separa dos regiones en el espacio, que representa dos diferentes clases de patrones.


        1. El algoritmo de aprendizaje del Perceptrón18


La importancia del perceptrón radica en su carácter de dispositivo entrenable, pues el algoritmo de aprendizaje introducido por Rosenblatt permite que el perceptrón determine automáticamente los pesos sinápticos que clasifican un determinado conjunto de patrones etiquetados.
El del perceptrón es un algoritmo de aprendizaje de los denominados por “corrección de errores”. Los algoritmos de este tipo (en el que incluiremos también el de la adalina y el BP) ajustan los pesos en proporción a la diferencia existente entre la salida actual de la red y la salida deseada, con el objetivo de minimizar el error actual de la red.
La regla de aprendizaje. Sea un conjunto de “p” patrones xμ, μ=1,…,p, con sus salidas deseadas tμ. Tanto las entradas como las salidas solo pueden tomar los valores -1 o 1 (o bien, 0 o 1, según definamos los niveles lógicos). Se tiene una arquitectura de perceptrón simple, con pesos iniciales del conjunto de aprendizaje (lo cual es posible solamente si son separables linealmente).
Por lo que actuaremos del siguiente modo, ante la presentación del patrón μ-ésimo, si la respuesta que proporciona el perceptrón es correcta, no actualizaremos los pesos; si es incorrecta, los modificaremos según la regla de Hebb se tiene:

Que se puede rescribir del siguiente modo:

Que es la forma habitual de expresar la regla del perceptrón. En su utilización práctica, se debe llegar a un compromiso para el valor del ritmo de aprendizaje , puesto que un valor pequeño implica un aprendizaje lento, mientras que uno excesivamente grande puede conducir a oscilaciones en el entrenamiento, al introducir variaciones en los pesos excesivamente amplias. Al ser las entradas y las salidas discretas {-1, +1}, también lo será la actualización de los pesos (2.21), que únicamente podrá tomar los valores 0 o ±2.
Una forma mucho más gráfica de introducir la regla del perceptrón es la siguiente. Sea la neurona i tipo perceptrón {-1, +1}, cuyo vector de pesos es . Se presenta el patrón de entrada , la salida objetivo de la neurona i ante este patrón es . La operación de la neurona la escribimos como


Considerando el umbral como un peso adicional de entrada -1 (véase el capítulo 1), y siendo el ángulo que forman los vectores de pesos y entradas. La hipersuperficie =0 establece la condición lineal que separa el espacio en dos regiones, etiquetadas por -1 y + 1, respectivamente. En el proceso de aprendizaje, ante la presentación del patrón -ésimo en la iteración t pueden darse los siguientes casos:


  1. La salida objetivo de la neurona es =+1, pero su salida actual es =-1.

En este caso, el producto escalar debería ser positivo, pero es negativo, lo cual indica que el ángulo existente entre y es mayor de 90° (, Figura 2.6). Así, la regla de aprendizaje del perceptrón debería en este caso acercar a para reducir el ángulo que forman, y eventualmente conseguir que sea inferior a 90° ( 0), lo cual se puede realizar del siguiente modo (véase la Figura 2.6a)



  1. La salida objetivo de la neurona es =-1, pero su salida actual es =+1. Razonando al revés que en el caso anterior, la regla de aprendizaje deberá alejar de , por lo tanto en este caso (figura 2.6b)




  1. La salida objetivo de la neurona coincide con su salida actual . En este caso la regla de aprendizaje no actúa.

Figuras pag. 54 figura 2.6.

Figura 2.7 Regiones de decisión que establece iterativamente el perceptrón durante el aprendizaje (en la iteracción 115 ha conseguido separar ya las dos clases)

Es fácil comprobar que los tres casos se resumen en la siguiente regla:



Y llamando , se tiene


Que es la regla del perceptrón (2.21) ya conocida.
Es importante remarcar que el proceso de aprendizaje es iterativo: se parte de una configuración sináptica de partida (de pesos pequeños alaetorios, habitualmente), y se presentan otra vez los patrones, para que los pesos se ajusten iterativamente según (2.21), hasta que todos queden bien clasificados. El hiperplano que establece el límite entre dos clases se desplaza lentamente hasta conseguir separarlas por completo (sin ello es posible), como se puede apreciar en la Figura 2.7. El ajuste de los pesos en la iteración t debido a todo el conjunto de aprendizaje será


Rosenblatt demostró que si la función a representar es linealmente separable, este algoritmo siempre converge en un tiempo finito y con independencia de los pesos de partida. Por otra parte, si la función no es linealmente separable, el proceso de entrenamiento oscilará. Una prueba de la convergencia del algoritmo puede encontrarse. Por otro lado, el algoritmo del perceptrón se detiene tan pronto como consigue clasificar correctamente todos los ejemplos, por lo que con frecuencia la línea de discriminación queda muy cerca de las muestras de uno de los grupos (en la Figura 2.7 ha quedado cerca de los patrones ´0´). Para obtener una discriminación óptima (en medio de ambos grupos) se han introducido algoritmos como el denominado Adatron.



        1. Adalina (Widrow, 1961)


Otro de los modelos clásicos es la Adalina (Adaline), introducida por Widrow en 1959, cuyo nombre proviene de Adaptive Linear Neuron. Este modelo utiliza una neurona similar a la del perceptrón, pero de respuesta lineal (figura 2.8), cuyas entradas pueden ser continuas. Por otra parte, a diferencia del nodo del asociador lineal, el de la adalina incorpora un parámetro adicional denominado bias, que traduciremos como umbral, aunque tenerse en cuenta que no se trata de un umbral de disparo como el del perceptrón, sino de un parámetro que proporciona un grado de libertad adicional 7. De este modo, la ecuación de la adalina queda
Pag. 55 figura 2.8


No obstante, la diferencia más importante con el perceptrón y con el asociador lineal reside en la regla de aprendizaje que implementa. En la adalina se utiliza la regla d Windrow-Hoff, también conocida como regla LMS (Least Mean Squares, mínimos cuadrados), que conduce a actualizaciones de tipo continuo, siendo la actualización de los pesos proporcional al error que la neurona comete.
Este ANS es un modelo muy conocido y ampliamente utilizado, aunque en ocasiones se hace más referencia a su carácter de dispositivo adaptativo lineal que a su naturaleza neuronal. La adalina se viene utilizando con asiduidad desde los años sesenta como filtro adaptativo, por ejemplo, para cancelar el ruido en la transmisión de comunicaciones telefónicas por satélite: para el interesado en profundizar en el tema, una interesante introducción al tratamiento de señal con la adalina se expone en. De este modo, y desde hace años, millones de módems en todo el mundo incluyen una adalina.
Su utilidad se ve limitada por tratarse de un sistema lineal. Así, solamente podrá separar correctamente patrones linealmente independientes, fallando en ocasiones ante patrones linealmente separables, que el perceptrón siempre discrimina. No obstante, ante patrones no separables linelamente, los resultados que proporciona son en promedio mejores que los del perceptrón], pues la adalina siempre opera reduciendo el error cuadrático medio al mínimo posible.


1   2   3   4   5   6   7

similar:

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconLas Redes Neuronales surgieron del movimiento conexionista, que nació...

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconLas redes sociales aplicadas a la práctica docente Juan José de Haro Introducción

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconRedes neuronales en macroeconomia

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconLos pictogramas se desarrollan para simplificar la comunicación de...

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconLos organofosforados son un grupo de pesticidas artificiales aplicados...

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconOmi en la Ciudad de Toluca, Capital del Estado de México, del día...

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconResumen Las redes sociales tienen un gran potencial en Educación,...

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconEl comercio de fármacos falsificados también abarca a los medicamentos...

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconResumen El artículo expone las nociones, conceptos y referentes básicos...

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconNinja Saga es uno de los juegos online más populares disponibles...


Medicina



Todos los derechos reservados. Copyright © 2015
contactos
med.se-todo.com