Neurona es el nombre que se da a la célula nerviosa y
a todas sus prolongaciones. Son células excitables especializadas para la recepción
de estímulos y la conducción del impulso nervioso. Su tamaño y forman varían considerablemente.
Cada una posee un cuerpo celular desde cuya
superficie se proyectan una o más prolongaciones denominadas neuritas. Las neuritas
responsables de recibir información y conducirla hacia el cuerpo celular se denominan
dendritas. La neurita larga única que conduce impulsos desde el cuerpo celular;
se denomina axón. Las dendritas y axones a menudo se denominan fibras nerviosas.
Las neuronas se hallan en el encéfalo, médula espinal y ganglios. Al contrario
de las otras células del organismo, las neuronas normales en el individuo maduro
no se dividen ni reproducen. Las neuronas cumplen
la función de recibir e integrar información y de enviar señales a otros tipos
de células excitables a través de contactos sinápticos. Clasificación
de las Neuronas Las neuronas se clasifican desde
el punto de vista morfológico en cuatro tipos principales según su forma y la
distribución de sus proyecciones. Las neuronas
unipolares: Poseen una sola proyección y son raras en los vertebrados, salvo
al principio del desarrollo embrionario. Las neuronas
bipolares: Poseen dos proyecciones que salen del soma, una sola dendrita y
un solo axón. Las neuronas bipolares están localizadas en los ganglios vestibular
y coclear y en el epitelio olfatorio de la cavidad nasal. Neuronas
seudounipolares: Poseen una sola proyección que sale del cuerpo celular, pero
esta proyección se ramifica más tarde en una rama periférica y una central. La
rama central entra en el SNC, y la rama periférica procede hacia su destino en
el cuerpo. Las neuronas se clasifican también en
tres grupos generales según su función: Neuronas
sensitivas (aferentes): Reciben estimulación sensitiva a nivel de sus terminaciones
dendríticas y conducen impulsos hacia el SNC para su procesamiento. Las localizadas
en la periferia del cuerpo vigilan los cambios en el ambiente, y las que se encuentran
dentro del cuerpo vigilan el ambiente interior. Neuronas
motoras (eferentes): Se originan en el SNC y conducen sus impulsos hacia músculos,
glándulas y otras neuronas. Las interneuronas:
Están localizadas dentro del SNC, funcionan como interconectoras o integradoras
que establecen redes de circuitos neuronales entre las neuronas sensitivas y motoras
y otras interneuronas.
Aplicación El
origen de las redes de neuronas se encuentra en la representación de la neurona
biológica por McCulloch y Pitts en 1943. Una RN con un gran número de unidades
en interacción es esquematizada en la siguiente figura. Este
modelo considera que una neurona puede ser representada por una unidad binaria
: a cada instante su estado puede ser activo o inactivo. En otros modelos, el
estado de la neurona es descrito por una variable continua. La interacción entre
las neuronas se lleva a cabo a través de sinapsis (o pesos sinápticos). Según
el signo, la sinapsis es excitadora o inhibidora. El
perceptron está constituido por las entradas provenientes de fuentes externas,
las conexiones y la salida. En realidad un perceptron es la red neuronal más simple
posible: aquella donde no existen capas ocultas. Para cada configuración de los
estados de las neuronas de entrada (estímulo) la respuesta del perceptron obedece
a la siguiente dinámica: se suman los po-tenciales sinápticos y se comparan con
un umbral de activación. Esta suma ponderada es también
llamada campo. Si el campo es mayor que un umbral, la respuesta de la neurona
es activa, si no, es inactiva. Con una arquitectura tan simple como la del perceptron
no se puede realizar más que una clase de funciones "booleanas" muy simples, llamadas
linealmente separables. Son las funciones en las cuales los estados de entrada
con salida positiva pueden ser separados de aquéllos a salida negativa por un
hiperplano. Un hiperplano es el conjunto de puntos en el espacio de estados de
entrada, que satisfacen una ecuación lineal. En dos dimensiones, es una recta,
en tres dimensiones un plano, etc. Si se quieren realizar funciones más complejas
con RN, es necesario intercalar neuronas entre las capas de entradas y de salida,
llamadas neuronas ocultas. Una red multicapas puede ser definida como un conjunto
de perceptrones, ligados entre si por sinapsis y dispuestos en capas siguiendo
diversas arquitecturas. Una de las arquitecturas más comúnmente usada es llamada
"feedforward": con conexiones de la entrada a las capas ocultas y de éstas hacia
la salida. El funcionamiento de una RN es gobernado
por reglas de propagación de actividades y de actualización de los estados. Teóricamente,
una RN puede ser vista como un modelo que realiza una función de un espacio de
entrada hacia un espacio de salida. El objetivo de esta modelización, consiste
en que la asociación sea lo más acorde posible con el medio ambiente del fenómeno
estudiado. La inmensa ventaja de los métodos conexionistas,
basados en unidades neuronales y enlaces sinápticos, comparado con los métodos
tradicionales de Inteligencia Artificial (IA) es la siguiente: no es necesario
conocer ni una expresión ni una construcción de la función a modelar, tan sólo
se requiere disponer de un conjunto de ejemplos satisfactorio (conjunto de aprendizaje)
para que la red pueda aproximar esta función aplicando una regla de aprendizaje.
Es por ello que las redes de neuronas son ampliamente utilizadas en aplicaciones
tan variadas como la previsión, la predicción, la clasificación, el diagnóstico
automático, el procesamiento de señales, el reconocimiento de formas, la compresión
de datos, la optimización combinatoria, la robótica, la búsqueda de documentos,
entre otras. La mayor parte de las reglas de aprendizaje se fundan en el ajuste
iterativo de las conexiones, pero otras pueden modificar la arquitecturas misma
de la red. Un modelo conexionista es definido por el tipo de neuronas, por la
arquitectura y por una regla de aprendizaje. Las características
comunes y deseables a todos estos modelos son: un fuerte potencial de autoorganización,
una cierta robustez frente a perturbaciones externas (memoria distribuida, deslocalizada
y redundancia de información), un paralelismo masivo e inherente. Sin embargo,
los modelos difieren entre sí por diversos aspectos: sus motivaciones biológicas,
su modo de funcionamiento o su campo de aplicaciones.
|