Las ANN aplicadas están, en general, inspiradas en las redes
neuronales biológicas, aunque poseen otras funcionalidades y estructuras de
conexión distintas a las vistas desde la perspectiva biológica. Las
características principales de las ANN son las siguientes:
Auto-Organización y Adaptabilidad: utilizan algoritmos de aprendizaje adaptativo y auto-organización, por lo que ofrecen mejores posibilidades de procesado robusto y adaptativo.
Procesado no Lineal: aumenta la capacidad de la red para aproximar funciones, clasificar patrones y aumenta su inmunidad frente al ruido.
Procesado Paralelo: normalmente se usa un gran número de nodos de procesado, con alto nivel de interconectividad.
El elemento básico de computación (modelo de neurona) se le llama habitualmente nodo o unidad. Recibe un input desde otras unidades o de una fuente externa de datos. Cada input tiene un peso asociado w, que se va modificando en el llamado proceso de aprendizaje. Cada unidad aplica una función dada f de la suma de los inputs ponderadas, mediante los pesos:
Esquema de funcionamiento de una Neurona Artificial |
Las características de las NN juegan un importante papel,
por ejemplo, en el procesado de señales e imágenes. Se usan arquitecturas que
comprenden elementos de procesado adaptativo paralelo, combinados con
estructuras de interconexiones jerárquicas.
Hay dos fases en la modelización con redes neuronales:
- Fase de entrenamiento: se usa un conjunto de datos o patrones de entrenamiento para determinar los pesos (parámetros) que definen el modelo de red neuronal. Se calculan de manera iterativa, de acuerdo con los valores de los valores de entrenamiento, con el objeto de minimizar el error cometido entre la salida obtenida por la red neuronal y la salida deseada.
- Fase de Prueba: en la fase anterior, el modelo puede que se ajuste demasiado a las particularidades presentes en los patrones de entrenamiento, perdiendo su habilidad de generalizar su aprendizaje a casos nuevos (sobreajuste).
Para evitar el problema del sobreajuste, es aconsejable
utilizar un segundo grupo de datos diferentes a los de entrenamiento, el grupo
de validación, que permita controlar el proceso de aprendizaje.
Normalmente, los pesos óptimos se obtienen optimizando
(minimizando) alguna función de energía. Por ejemplo, un criterio muy utilizado
en el llamado entrenamiento supervisado, es minimizar el error cuadrático medio
entre el valor de salida y el valor real esperado.
Los modelos neuronales utilizan varios algoritmos de
estimación, aprendizaje o entrenamiento para encontrar los valores de los
parámetros del modelo, que en la jerga de las redes neuronales se denominan
pesos sinápticos.
No hay comentarios:
Publicar un comentario