Fecha: 02/06/2015
Tema: Perceptron multicapa
INTRODUCCIÓN
A
continuación se estudiará una de las clases de redes, conocida como redes
multicapas, el cual ha sido ideado con bases del perceptron simple, surgiendo
como consecuencia de las limitaciones que presentaba el antes mencionado.
Minsky y Papert fueron los que en el año 1960 combinaron preceptrones simples
que podrían solucionar algunos problemas no lineales.
Sin
embargo la idea de combinar varios perceptrones sirvió para estudios
posteriores que fueron realizados por Rummelhart, Hinton y Wilians en 1986,
donde se presentó una forma de retroprogramar los errores en la salida de la
red, dando lugar a la regla delta.
DESARROLLO
PERCEPTRON MULTICAPA
El
interés por la investigación en redes multicapa parte de los trabajos de
Rosenblatt (1962) sobre Perceptrones y los de Widrow y sus alumnos sobre
Madalines (1962). Los Madalines estaban constituidos por varias unidades de
entrada y varios elementos Adalides en la primera capa, y con varios
dispositivos lógicos (AND, OR,…) en la segunda capa.
El Perceptrón simple es capaz de
resolver problemas de clasificación e implementar funciones lógicas, como por
ejemplo, la función OR, pero es incapaz de implementar funciones como la
función lógica XOR (función de paridad). Sobre estas limitaciones, Minsky y
Papert (1969) publicaron un libro titulado “Perceptrons” que supuso el abandono
por parte de muchos científicos de la investigación en redes neuronales, pues
no se encontraba un algoritmo de aprendizaje capaz de implementar funciones de
cualquier tipo. Las limitaciones de las redes de una sola capa hicieron que se
plantease la necesidad de implementar redes en las que se aumentase el número
de capas, es decir, introducir capas intermediarias o capas ocultas entre la
capa de entrada y la capa de salida de manera que se pudiese implementar
cualquier función con el grado de precisión deseado, es decir, que las redes
multicapa fuesen aproximadores universales. Por ejemplo, con un Perceptrón con
dos capas se puede implementar la función lógica XOR.
TOPOLOGÍA.
El
Perceptrón multicapa es una red de alimentación hacia adelante (feedforward)
compuesta por una capa de unidades de entrada (sensores), otra capa de unidades
de salida y un número determinado de capas intermedias de unidades de proceso,
también llamadas capas ocultas porque no se ven las salidas de dichas neuronas
y no tienen conexiones con el exterior. Cada sensor de entrada está conectado
con las unidades de la segunda capa, y cada unidad de proceso de la segunda
capa está conectada con las unidades de la primera capa y con las unidades de
la tercera capa, así sucesivamente. Las unidades de salida están conectadas
solamente con las unidades de la última capa oculta.
Para
implementar dicha relación, la primera capa (sensores de entrada) tendrá tantos
sensores como
componentes tenga el patrón de entrada, es decir, N; la capa de salida tendrá
tantas unidades de
proceso como componentes tengan las salidas deseadas, es decir, M, y el número de capas ocultas y su tamaño
dependerán de la dificultad de la correspondencia a implementar
DINÁMICA DE LA COMPUTACIÓN
Como
las entradas a las unidades de proceso de una capa son las salidas de las
unidades de proceso de la capa precedente, el Perceptrón multicapa con sólo una
capa oculta implementa la siguiente función: donde wij es el peso sináptico
de la conexión entre la unidad de salida i y la unidad de proceso j
de la capa oculta; L es el número de unidades de proceso de la capa oculta; g1 es
la función de transferencia de las unidades de salida, que puede ser una función
logística, una función tangente hiperbólica o la función
identidad; tjr es el peso sináptico que conecta la unidad de proceso j de
la capa oculta con el sensor de entrada r y g2 es la función de
transferencia de las unidades de la capa oculta, que puede ser también una
función logística, una función tangente hiperbólica o la función identidad.
Una
vez que hemos establecido la topología de la red, y su dinámica de la
computación, la determinación de los pesos sinápticos nos llevará al diseño
completo de la red. Para ello vamos a seguir un proceso de entrenamiento,
mediante el cual vamos introduciendo cada uno de los patrones y evaluando el
error que se comete entre las salidas obtenidas por la red y las salidas
deseadas; entonces se irán modificando los pesos sinápticos según el error
cometido.
CONCLUSIÓN
La red o perceptron multicapa fue creado para
resolver los problemas o limitaciones que surgieron en el perceptron simple, que
luego sirvieron para estudios posteriores
BIBLIOGRAFÍA
Milone, D; Rufiner, L. 2011. Perceptron
Multicapa. (En línea). AR. Consultado, 20 de jun. 2015. Formato PDF. Disponible
en http://infofich.unl.edu.ar/
Isassi, R; Galván, I 2013. Redes
neuronales artificiales. 2ed. Pearson. p 5-10.
Mejías, Y; Carrasco,R; Ochoa, I;
Moreno,E. 2013. Funciones de
transferencia en el perceptrón multicapa: efecto de su combinación en
entrenamiento local y distribuido. La Habana. CU. Revista Scielo. Vol. 5. p 2