Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México




descargar 304.79 Kb.
títuloLas redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México
página3/7
fecha de publicación05.12.2015
tamaño304.79 Kb.
tipoDocumentos
med.se-todo.com > Economía > Documentos
1   2   3   4   5   6   7

Marco Teórico de la Investigación.




      1. Definición de una Red Neuronales Artificial15


Las RNA se definen como sistemas de mapeos lineales cuya estructura se basa en principios observados en los sistemas nerviosos humanos y animales. Constan de un número grande de procesadores simples ligados por conexiones de pesos. Las unidades de procesamiento se denominan neuronas. Cada unidad recibe entradas de otros nodos y genera una salida simple escalar que depende que depende de la información local disponible, guardada internamente o que llega a través de las conexiones con pesos. Pueden realizarse muchas funciones complejas dependiendo de las conexiones.
Las neuronas artificiales simples fueron introducidas por McCulloch y Pitts en 1943. Una red neuronal se caracteriza por los siguientes elementos:


  1. Un conjunto de unidades de procesamiento o neuronas.

  2. Un estado de activación para cada unidad, equivalente a la salida de la unidad.

  3. Conexiones entre las unidades, generalmente definidas por un peso que determina el efecto de una señal de entrada en la unidad.

  4. Una regla de propagación, que determina la entrada efectiva de una unidad a partir de las entradas externas.

  5. Una función de activación que actualiza el nuevo nivel de activación basándose en la entrada efectiva y la activación anterior.

  6. Una entrada externa que corresponde a un término determinado como vías para cada

  7. Un método para reunir la información, correspondiente a la regla de aprendizaje.

  8. Un ambiente en el que el sistema va a operar, con señales de entrada e incluso señales de error.


En muchas redes las unidades de proceso tienen respuesta de la forma:


Donde:
: Señales de salida de otros nodos o entradas externas.

: Pesos de las ligas de conexión.

: Función no lineal simple.
La función puede ser sigmoidal, tangente hiperbólica, escalón, entre otras. Cada unidad de proceso tiene una tarea simple: recibe la entrada de otras unidades o de fuentes externas y procesa la información para obtener una salida que se propaga a otras unidades.
Una red puede tener una estructura arbitraria, pero las capas que contienen estas estructuras están definidas de acuerdo con su ubicación en la topología de la red neuronal. Las entradas externas son aplicadas en la primera capa, y las salidas se consideran la última capa. Las capas internas que no se consideran como capa porque no realizan procesamiento.
La entrada total “u” de una unidad “k” es la suma de los pesos de las entradas conectadas, más bien θ:

Si el peso es positivo se habla de una excitación y si el peso es negativo se considera una inhibición de la entrada. Si consideramos a las entradas como funciones del tiempo, la expresión anterior se convierte en:




    1. Funciones de activación


La regla que logra establecer el efecto de la entrada total u(t) en la activación de la unidad k se denomina función de activación

En muchas ocasiones esta función es de la forma no decreciente respecto a la entrada total de la unidad:


Algunas de las funciones de activación más usadas son las siguientes:



  1. Función escalón.


La función de activación escalón se asocia a neuronas binarias en las cuales, cuando la suma de las entradas es mayor o igual que el umbral de la neurona, la activación es 1; si es menor la activación es 0 (o – 1).




  1. Función lineal mixta.


La función lineal mixta o identidad responde a la expresión . En las neuronas con función mixta, si la suma de las señales de entrada es menor que un límite inferior, la función se define como 0 (o – 1). Si dicha suma es mayor o igual que el límite superior, entonces la activación es 1. Si la suma de entrada está comprendida entre ambos límites, superior e inferior, entonces la activación se define como una función lineal de la suma de las señales de entrada.


:







  1. Función tangente hiperbólica.


La función de activación tangente hiperbólica se emplea en los casos que presentan variaciones suaves de valores positivos y negativos de la señal a clasificar. Como se puede ver en su descripción es una de las funciones más empleadas en entrenamientos supervisados, como en el caso del entrenamiento de retropropagación del error.
Debe de tenerse cuidado de emplear esta figura entre los umbrales positivos y negativos antes de la saturación, de otra forma la salida siempre generará valores saturados iguales a 1 y -1.





  1. Función sigmoidal.


Con la función sigmoidal el valor dado por la función es cercano a uno de los valores asintóticos. Esto hace que en la mayoría de los casos, el valor de salida esté comprendido en la zona alta o baja del sigmoide. De hecho, cuando la pendiente es elevada, esta función tiende a la función escalón. Sin embargo, la importancia de la función sigmoidal es que su derivada siempre es positiva y cercana a cero para los valores grandes positivos o negativos; además, toma su valor máximo cuando x = 0. Esto hace que se puedan utilizar reglas de aprendizaje definidas para las funciones escalón, con la ventaja, respecto a esta función, de que la derivada está definida en todo intervalo.






  1. Función de Gauss.


Los mapeos ocultos algunas veces pueden realizarse con un solo nivel de neuronas mediante el uso de funciones de activación tipo Gauss, en lugar de funciones tipo sigmoidales.
http://www.cedicyt.ipn.mx/imagenes/gauss3.gif




    1. Topologías de las redes neuronales


Dos de las topologías más usadas, de acuerdo con las diferencias en la manera de realizar las conexiones, son:


  1. Redes de propagación hacia adelante (feed-forward): el flujo de información de las entradas a las salidas es exclusivamente hacia adelante, extendiéndose por capas múltiples de unidades, pero no hay ninguna conexión de retroalimentación.

  2. Redes recurrentes: contienen conexiones de retroalimentación, lo que puede derivarse en un proceso de evolución hacia un estado estable en le que no haya cambios en el estado de activación de las neuronas.




    1. Elementos de una red neuronal artificial


Una RNA consta de un conjunto de elementos de procesamiento conectados entre sí y entre los que se envían información a través de conexiones. Un esquema básico de una red neuronal artificial se observa en la siguiente figura, la cual presenta las diferentes capas que tiene esta topología, que es una estructura que se conoce con el nombre de feed-forward (hacia adelante) debida al flujo de la información.

Esquema básico de una RNA


  • Los elementos básicos de una RNA son:




  • Conjunto de unidades de procesamiento (neuronas).

  • Conexiones entre unidades (asociado a cada conexión un peso o valor)

  • Funciones de salida o activación para cada unidad de procesamiento


El modelo de la neurona y la arquitectura de la red describen cómo esta última transforma sus entradas y salidas. Los elementos individuales de cálculo que forman la mayoría de los modelos de sistemas neuronas artificiales, se conocen como neuronas artificiales.



      1. Entrenamiento de las Redes Neuronales16


Se denomina entrenamiento al proceso de configuración de una red neuronal para que las entradas produzcan las salidas deseadas a través del fortalecimiento de las conexiones. Una forma de llevar esto a cabo es a partir del establecimiento de pesos conocidos con anterioridad, y otro método implica el uso de técnicas de retroalimentación y patrones de aprendizaje que cambian los pesos hasta encontrar los adecuados.
Además, el aprendizaje puede dividirse en supervisado o asociado y no supervisado o auto-organizado. En el primer caso se introducen entradas que corresponden a determinadas salidas, ya sea por un agente externo o por el mismo sistema. En el segundo caso el entrenamiento se enfoca a encontrar características estadísticas entre agrupamientos de patrones en las entradas.
Un tipo de regla que se usa para el entrenamiento mediante el ajuste de pesos es la Hebbiana, propuesta por Hebb en 1949 y que ha dado pie a diversas variantes propuestas en el transcurso del tiempo. Si dos unidades j y k están activas al mismo tiempo, la conexión entre las dos debe de ser fortalecida mediante la modificación del peso

Donde es una constante de proporcionalidad positiva que representa la tasa de aprendizaje.
Otra regla usada comúnmente implica el ajuste de los pesos a través de la diferencia entre la activación actual y la deseada; se le conoce como regla Delta:


Donde es la activación deseada.


        1. Proceso de entrenamiento o aprendizaje.


Como se menciono, las RNA reciben unos datos de entrada que se transforman para producir una salida con el objeto de clasificarlos o ajustar una función. La justificación teórica para este tipo de aplicaciones es que, suponiendo que la red tenga un número suficiente de neuronas, podrá ajustar cualquier función continua con una cierta precisión con tan solo escoger los valores adecuados para los parámetros ajustables de dicha red. Estos parámetros son; en general, los pesos sinápticos y son, por tanto, el medio que la red emplea para almacenar sus conocimientos sobre el problema a resolver.
Este conocimiento se almacena en la RNA a través de un proceso de aprendizaje o entrenamiento, que no es más que la modificación de los parámetros de la RNA mediante un conocimiento preestablecido, al objeto de conseguir una mejora en su rendimiento. Como el proceso de aprendizaje humano, el de las RNA está basado en el uso de ejemplos que representan el problema. A este conjunto se le conoce como conjunto de entrenamiento. Es importante recalcar que el objetivo del aprendizaje no es memorizar las relaciones entrada/salida que hay en el conjunto de entrenamiento, sino modelar el proceso que ha generado estos datos para ello es conveniente que el número y tipo de ejemplos disponibles para el entrenamiento de la red sean suficientemente representativo de la relación que desea aprender. De este modo, una vez entrenada, la red será capaz de manejar no solo los datos de entrenamiento, sino nuevos datos distintos de los primeros, sin que por ello se degrade su rendimiento. Esto se conoce como la capacidad de generalización de la red.
En función de cómo este constituido el conjunto de entrenamiento se distinguen básicamente dos tipos de aprendizaje: supervisado y no supervisado. En el aprendizaje supervisado se parte de una serie de observaciones o entradas y unas salidas deseadas que la red debería de obtener, y el objetivo es aprender la correspondencia entre ambas. Es decir, el conjunto de entrenamiento estará compuesto por pares de la forma:

Donde “” es el vector de entradas, “” el de salidas deseadas y “” es el tamaño del conjunto de entrenamiento. La aproximación que se sigue es partir del modelo genérico que representa la red, totalmente definido excepto por una serie de parámetros o pesos “”, y con él producir una buena aproximación a “”.

Donde “” representa la salida proporcionada por la red. El algoritmo de aprendizaje optimizará los parámetros de manera que la salida producida por el modelo sea los más parecida posible a la del conjunto de entrenamiento. Es decir, se trata de encontrar el conjunto de parámetros que minimiza el error “” que, en cada paso del aprendizaje, indique lo cerca que está de la solución.
De nuevo existe una serie de funciones de error que, por sus características, se utilizan más frecuentemente. Todas ellas toman la forma de una suma del error que, para cada ejemplo “” de aprendizaje, mide la diferencia entre la salida que se debería haber obtenido. La forma de medir dicho error dependerá del tipo de problema que se intente resolver. Así, si se trata de un problema de regresión, la salida de la red es una variable continua y la función de error más utilizada es el “Error Cuadrático Medio” (en adelante EMC):

El uso de esta función permitirá que las salidas reales de la red modelen la función de distribución media de las salidas deseadas utilizadas durante el entrenamiento.
Por otro lado, si hablamos de problemas de clasificación, la salida de la red no será única sino que deberá de estar formada por tantas neuronas como clase posibles “”, y la salida deseada estará codificada como un vector de valores binarios (0,1) en el que solo el bit correspondiente a la clase adecuada tomará el valor 1. En este caso, el objetivo a conseguir que las salidas de la red modelen las probabilidades de pertenencia de las entradas a alguna de las clases consideradas. Para conseguirlo, en esta situación resulta más adecuado utilizar la función de entropía cruzada, cuya ecuación es:

Donde es la salida de la neurona “k” para el ejemplo de entrenamiento “n”. La diferencia fundamental respecto al ECM es que, en este caso, no se valorará tanto la diferencia exacta entre el valor deseado para cada neurona “k” de salida y el obtenido , sino que el resultado de la clasificación sea el correcto. Es decir, que la neurona que representa la clase correcta sea la que obtenga el mayor de activación a su salida.
Por otro lado, el tipo de problema y la función de error utilizada están muy ligados al tipo de función de activación empleada en las neuronas de salida. En el caso de problemas de clasificación, lo ideal es obtener valores discretos en las neuronas de salida (p.e., (0,1)) y que además, éstas se pueden interpretar como probabilidades para lo que, en conjunto, la suma de todas ellas deberá estar en el intervalo [0,1]. Con este fin, es recomendable utilizar la función sigmoidea.

Otra forma alternativa de entrenamiento es el aprendizaje no supervisado. En este caso, en el conjunto de entrenamiento los datos de entrada “x” no vienen acompañados de una salida deseada, y el objetivo no es encontrar un mapeo entrada/salida, sino que encontrar patrones que definan regularidades subyacentes en x. Además estos patrones ocurren con distintas frecuencias y la red deberá de encontrar una estimación de la distribución de probabilidad de x, y en otros el objetivo será inferir las clases existentes en las que agrupar los ejemplos de entrada que presenten similitudes.


1   2   3   4   5   6   7

similar:

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconLas Redes Neuronales surgieron del movimiento conexionista, que nació...

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconLas redes sociales aplicadas a la práctica docente Juan José de Haro Introducción

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconRedes neuronales en macroeconomia

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconLos pictogramas se desarrollan para simplificar la comunicación de...

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconLos organofosforados son un grupo de pesticidas artificiales aplicados...

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconOmi en la Ciudad de Toluca, Capital del Estado de México, del día...

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconResumen Las redes sociales tienen un gran potencial en Educación,...

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconEl comercio de fármacos falsificados también abarca a los medicamentos...

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconResumen El artículo expone las nociones, conceptos y referentes básicos...

Las redes neuronales artificiales aplicadas a los riesgos de negocios de las pyme’s de servicios en la Ciudad de México iconNinja Saga es uno de los juegos online más populares disponibles...


Medicina



Todos los derechos reservados. Copyright © 2015
contactos
med.se-todo.com