jump to navigation

Red Neuronal Artificial, Arquitectura de una Red Neuronal, Tipo de Redes por el flujo de señales, algoritmos de aprendizaje de las Redes Neuronales y Paradigmas de Aprendizaje. diciembre 27, 2008

Posted by Javier Gramajo in Redes Neuronales.
add a comment

Por: Alex Steven Campos Hernández

Red neuronal Artificial (RNA)

Una red neuronal artificial (RNA) es un modelo computacional inspirado en redes neuronales biológicas que puede ser consideradas como un sistema de procesamiento de información con características como aprendizaje a través de ejemplos adaptabilidad, robustez, capacidad de generalización y tolerancia a fallas.

La RNA puede ser definida como una estructura distribuida, de procesamiento paralelo, formada de neuronas artificiales (llamados también elementos de procesamiento), interconectados por un gran numero de conexiones (sinapsis), los cuales son usados para almacenar conocimiento que esta disponible para poder ser usado.

Estructura de la Neurona Artificial

Modelo de neurona de McCulloch-Pitts.

En el cual puede observarse N entradas que son representadas por las variables X, las cuales están asociadas a pesos representados por las variables W, los cuales determinan el nivel de influencia de la neurona j para la neurona i por ejemplo.

Existen dos procesos para cada neurona los cuales son la suma y la activación.

En el primero las señales de entrada xj y los pesos wij son combinadas por el sumatoria:

Donde yi es llamado de estado interno de la neurona i.

En la segunda etapa, la salida de la neurona es generada a través de la aplicación de una función llamada función de activación.

Donde la salida de la neurona es representada por “x i y “f corresponde a la función de activación aplicada al estado interno de la neurona, que tiene como objetivo limitar el nivel de activación

Arquitectura de Red

La definición de arquitectura es un punto importante en el modelaje de una red neuronal, por que ella restringe un tipo de problema que puede ser tratado. Por ejemplo las redes de una capa. Una red también puede estar formada por múltiples capas, las que pueden ser clasificadas en tres grupos: capa de entrada, capas intermediarias u ocultas y capas de salida

Basado en flujo de las señales, las redes neuronales también pueden ser clasificadas en dos tipos: FeedForward y redes Recurrentes.

Redes FeedForward

La estructura de una red FeedForward consiste en capas de neuronas donde la salida de una neurona de una capa, alimenta todas las neuronas de la capa siguiente. El aspecto fundamental de esta estructura es que no existen las uniones de retroalimentación.

Redes Recurrentes

Redes recurrentes son aquellas que poseen conexiones de realimentación, las cuales proporcionan un comportamiento dinámico. El modelo de Hopfield es un ejemplo de red neuronal recurrente.

Algoritmos de Aprendizaje de un RNA

Una propiedad importante de las redes neuronales es la habilidad de aprender a partir de su ambiente. Eso es realizado a través de un proceso interactivo de ajustes aplicado a sus pesos de conexión entre dos neuronas, denominados entrenamiento. Existen muchos algoritmos de aprendizaje. Cada uno sirve para determinar redes neuronales. Entre los principales se tienen:

Aprendizaje por Corrección de Error: Algoritmo muy conocido basado en la regla Delta, que busca minimizar la función de error usando un gradiente descendente. Este es el principio usado en el algoritmo BackPropagation, muy utilizado para el entrenamiento de redes de múltiples capas como la Multilayer-Perceptron

Aprendizaje Competitivo: La cual dos neuronas de una capa compiten entre si por el privilegio de permanecer activos, tal que una neurona con mayor actividad será el único que participará del proceso de aprendizaje. Este aprendizaje es utilizado en mapas de Kohonen y en redes ART.

Aprendizaje Hebbiano: Son dos neuronas que están simultáneamente activas a conexiones entre ellas que pueden ser fortalecidas caso contrario se debilitaran este aprendizaje es utilizado en el Modelo de Hopfield

Aprendizaje de Boltzmann: Es una regla de aprendizaje estocástico obtenido a partir de principios de teórico de información y de termodinámica. Su objetivo es ajustar los pasos de conexión de tal forma que el estado de las unidades visibles satisfaga una distribución de probabilidades deseada en particular

Otro factor que interviene en el aprendizaje de su entorno de las redes neuronales son los Paradigmas de Aprendizaje los cuales son:

Aprendizaje Supervisado: Se utiliza un agente externo que indica a la red la respuesta deseada para el patrón de entrada.

Refuerzo: Es una variante de aprendizaje supervisado a la cual se informa a la red solamente una critica de corrección de salida de red y no la respuesta correcta en si.

Aprendizaje No Supervisado (auto-organización): No existe un agente externo indicando la respuesta deseada para los patrones de entrada. Este tipo de aprendizaje es utilizado en los modelos de Mapas de Kohonen, redes ART1 y ART2.

Referencia del Articulo

Universidad de San Pablo, Perú – Arequipa

Juan Carlos Gutiérrez Cáceres

Inteligencia Artificial – Redes Neuronales

http://www.usp.edu.pe/~jc.gutierrez/IA_/notes.html

Redes Neuronales diciembre 23, 2008

Posted by Javier Gramajo in Redes Neuronales.
6 comments

Por: Cesar Rojas

Las redes neuronales son consideradas como modelos matemáticos que intentan simular el funcionamiento de las neuronas del cerebro, ha sido estudiado por años y se ha ido evolucionando en su estudio.[1]

Pese a que aún no simulan con exactitud el comportamiento de una red neuronal del cerebro humano, la capacidad de aprendizaje y su adaptabilidad.

Your browser may not support display of this image.

Tipos de Redes Neuronales Artificiales [2]

El estudio y desarrollo de las redes neuronales ha llegado a tal punto que existen tipos de redes neuronales, entre los que destacan:

    • Perceptrón
    • Adaline
    • Perceptrón multicapa
    • Memorias asociativas
    • Máquina de Bolzman
    • Máquina de Cauchy
    • Propagación hacia atrás (backpropagation)
    • Redes de Elman
    • Redes de Hopfield
    • Red de contrapropagación
    • Redes de neuronas de base radial
    • Redes de neuronas de aprendizaje competitivo
    • Mapas Autoorganizados (SOM)
    • Crecimiento dinámico de células
    • Gas Neuronal Creciente
    • Redes ART (Adaptative Resonance Theory)

Nos enfocaremos en los Mapas Autoorganizados (SOM)

Mapas Autoorganizados (SOM)  [3]

Los mapas autoorganizados o SOM (Self-Organizing Map), también llamados redes de Kohonen son un tipo de red neuronal no supervisada, competitiva, distribuida de forma regular en una rejilla de, normalmente, dos dimensiones, cuyo fin es descubrir la estructura subyacente de los datos introducidos en ella. A lo largo del entrenamiento de la red, los vectores de datos son introducidos en cada neurona y se comparan con el vector de peso característico de cada neurona. La neurona que presenta menor diferencia entre su vector de peso y el vector de datos es la neurona ganadora (o BMU) y ella y sus vecinas verán modificados sus vectores de pesos.

Estructura de una SOM

Rejilla de neuronas

Las neuronas de la SOM están distribuidas en forma de rejilla gular de una o dos dimensiones, dependiendo de la manera en que se quieran visualizar los datos. Las más comunes son las de dos dimensiones. Rejillas de dimensiones superiores son posibles, aunque son más difíciles de interpretar.

En las SOM de dos dimensiones, se pueden distinguir dos tipos de rejillas:

  • Rejilla hexagonal: en ella cada neurona tiene seis vecinos (excepto los extremos).
  • Rejilla rectangular: cada neurona tiene cuatro vecinos.

Espacio de entrada y de salida

Cada neurona de la red tiene asociado un vector de pesos (o de prototipo) de la misma dimensión que los datos de entrada. Éste sería el espacio de entrada de la red, mientras que el espacio de salida sería la posición en el mapa de cada neurona.

Relación entre Neuronas

Las neuronas mantienen con sus vecinas relaciones de vecindad, las cuales son claves para conformar el mapa durante la etapa de entrenamiento. Esta relación viene dada por una función.

Entrenamiento

En cada paso se introduce un vector de datos en cada neurona y se calcula la «similitud» entre éste y el vector de peso de cada neurona. La neurona más parecida al vector de entrada es la neurona ganadora (o BMU, Best-Matching Unit, Unidad con mejor ajuste). Para medir la similaridad se utiliza usualmente la distancia euclídeana. Tras ello, los vectores de pesos de la BMU y de sus vecinos son actualizados, de tal forma que se acercan al vector de entrada.

Software Libre

  • Toolbox de SOMs para Matlab (incluye tutorial)
  • LabSOM Laboratorio del SOM
  • ViBlioSOM Visualización Bibliométrica mediante el SOM

Video:

http://www.youtube.com/watch?v=xbWXvCQzvqw

Referencias:

[1]http://www.redes-neuronales.netfirms.com/tutorial-redes-neuronales/que-son-las-redes-neuronales.htm

[2]http://es.wikipedia.org/wiki/Red_neuronal_artificial

[3]http://es.wikipedia.org/wiki/Mapas_Autoorganizados_(RNA)

Redes Neuronales Línea de Tiempo octubre 8, 2008

Posted by Javier Gramajo in Redes Neuronales, Teoría.
Tags:
add a comment

pioneros, Warren McCulloch y Walter Pitts
http://ingenieria.udea.edu.co/investigacion/mecatronica/mectronics/redes.htm

reforzando el concepto de neuronas y como trabajan por Donald Hebb
Organization and behavior, 1949

projecto darthmouth
john von Neumann sugiere la imitacion de funciones de neuronas simples usando relays de telegrafo, o tubos de vacio.

frank rosenblatt, un neuro-biologo empezo a trabajar en los perceptrones
intrigado por el funcionamiento del ojo de una mosca.

marvin minsky and seymour papert demuestran que el perceptron es limitado y esta provado en el libro «disillusioned years» 1969

bernard widrow y marcian hoff de stanford desarrollan modelos que se llamaron ADALINE y MADALINE
1959

1982
john HOpfield de caltech presenta un articulo a la academia de ciencias.
el alcance de Hopfield es no crear simples modelos del cerebro, sino crear dispositivos utiles.
con claridad y analisis matematico, el demostro como las redes pueden trabajar, y lo que pueden hacer.

1985
el instituto americano de fisica, empezo lo que luego se convirgio en una reunion annual, redes neuronales para computaciones. en 1987 la IEEE hizo la primera conferencia internacional de redes neuronales, a la que atendieron mas de 1800 personas.

1989 neural networks for defense.
en 1990 el departamento de defensa de los estados unidos, en su programa de investigacion nombre 16 topicos, de los cuales 13 posiblemente podrian ser resueltos con RNA.

https://www.dacs.dtic.mil/techs/neural/neural4.php