La teoría de las redes neuronales se basa en el funcionamiento del cerebro humano para realizar tareas de procesamiento de información. Estas redes están compuestas por unidades llamadas neuronas artificiales, organizadas en capas interconectadas. A través de entrenamiento con datos, ajustan sus pesos para aprender patrones y realizar tareas como clasificación o predicción.
La llamada teoría de
las redes neuronales hacer referencia a que la corteza cerebral esta formada
por unas células denominadas neuronas, cada una de estas células está formada
por un cuerpo, un axón, y una multitud de dentritas. Las dentritas forman una estructura
de filamentos muy fina que rodean el cuerpo de la neurona. El axón es un tubo
largo y delgado que se ramifica en su extremo en pequeños bulbos finales que
casi tocan las dentritas de las células vecinas. La pequeña separación entre
los bulbos finales y las dentritas se le denomina sinapsis. Los impulsos
eléctricos viajan por el axón y hace contacto con las dentritas de la neurona
vecina mediante las sinápsis. La intensidad de la corriente transmitida depende
de la eficiencia de la transmisión sináptica. Una neurona en especial
transmitirá un impulso eléctrico por su axón si suficientes señales de las
neuronas vecinas transmiten a través de sus dentritas en un tiempo corto,
denominado período de suma latente. La señal que se transmite a la neurona podrá
ser inhibitoria o excitatoria. La neurona manda el impulso por su axón, si la
excitación excede su inhibición por un valor crítico, el umbral de la neurona.
Neuronas Artificiales
Una neurona
"artificial", que intenta modelar el comportamiento de la neurona
biológica. Aquí el cuerpo de la neurona se representa como un sumador lineal de
los estímulos externos, seguida de una función no lineal yj = f(zj). La función
f(zj) es llamada la función de activación, y es la función que utiliza la suma
de estímulos para determinar la actividad de salida de la neurona.
Este modelo se conoce
como perceptor de McCulloch-Pitts, y es la base de la mayor parte de las
arquitectura de las RN (conglomerados de perceptrones) que se interconectan
entre sí y parte clave en la teoría de las redes neuronales. Las neuronas
emplean funciones de activación diferentes según la aplicación, algunas veces
son funciones lineales, otras funciones sigmoidales (p.ej. la tanh), y otras
funciones de umbral de disparo. La eficiencia sináptica se representa por
factores de peso de interconexión wij, desde la neurona i, hasta la neurona j.
Los pesos pueden ser positivos (excitación) o negativos (inhibición). Los pesos
junto con las funciones f(z) dictan la operación de la red neuronal.
Normalmente las funciones no se modifican de tal forma que el estado de la red
neuronal depende del valor de los factores de peso (sinápsis) que se aplica a
los estímulos de la neurona.
Las RN puede tener
factores de peso fijos o adaptables. Las RN con pesos adaptables emplean leyes
de aprendizaje para ajustar el valor de la fuerza de un interconexión con otras
neuronas. Si las neuronas utilizan pesos fijos, entonces su tarea deberá estar
muy bien definida a priori. Los pesos serán determinados a partir de una
descripción completa del problema. Por otra parte, los pesos adaptables son
esenciales si no se sabe a priori cual deberá de ser el valor correcto de los
pesos.
Dos tipos de
aprendizaje
No hay comentarios:
Publicar un comentario