ART (RNA)


ART (RNA)

ART son las siglas en inglés de Teoría de la Resonancia Adaptativa (Adaptive Resonance Theory), desarrollada por Stephen Grossberg y Gail Carpenter. Es un modelo de red neuronal artificial que basa su funcionamiento en la manera en que el cerebro procesa información y que describe una serie de modelos de redes neuronales que utilizando métodos de aprendizaje supervisado y no supervisado abordan problemas tales como el reconocimiento y la predicción de patrones.

Contenido

Dilema de la Estabilidad y Plasticidad del Aprendizaje

Grossberg y Carpenter desarrollaron la Teoría de Resonancia Adaptiva en respuesta a este dilema, en el que se plantean las siguientes cuestiones:

  • Plasticidad del aprendizaje: permite a una red neuronal poder aprender nuevos patrones.
  • Estabilidad del aprendizaje: permite a una red neuronal poder retener los patrones aprendidos.

Conseguir que un modelo de RNA sea capaz de resolver uno solo de estos problemas es sencillo, el reto está en conseguir un modelo que sea capaz de dar respuesta a ambos. Las redes más conocidas, tales como el Perceptrón multicapa o el Adaline, son capaces de aprender como han de responder ante unos patrones de entrada pero, una vez entrenados, el intentar que aprendan nuevos patrones puede suponer el "olvido" de lo aprendido previamente.

Características

  • El aprendizaje se produce mediante un mecanismo de realimentación creado por la competencia entre las neuronas de la capa de salida y la capa de entrada de la red.
  • El aprendizaje es no supervisado, aunque existe una modalidad supervisada.
  • La red crea su propia clasificación de lo que aprende.

Arquitectura

Es una red formada por tres capas:

  • Capa de entrada: no se realiza ningún preprocesamiento de los datos de entrada.
  • Capa oculta
  • Capa de salida: es una capa de neuronas competitivas.

La capa de entrada y la capa oculta siempre tienen el mismo número de neuronas. Cada neurona de la capa de entrada es entrada de una única neurona de la capa oculta, por esta razón también se habla de las redes ART como redes de dos capas, y no de tres, aunque ambos puntos de vista son correctos.

Concepto

El modelo ART soluciona el dilema de la estabilidad y plasticidad del aprendizaje mediante un mecanismo de realimentación entre las neuronas competitivas de la capa de salida.

Cuando a la red se le presenta un patrón de entrada este se hace resonar con los prototipos de las categorías conocidas por la red, si el patrón entra en resonancia con alguna clase entonces es asociado a esta y el centro de cluster es desplazado ligeramente para adaptarse mejor al nuevo patrón que le ha sido asignado. En caso contrario, si el patrón no entra en resonancia con ninguna clase, pueden suceder dos cosas: si la red posee una capa de salida estática entrará en saturación pues no puede crear una nueva clase para el patrón presentado pero tampoco puede asignarlo a una clase existente, si la red posee una capa de salida dinámica se creará una nueva clase para dicho patrón, esto no afectará a las clases ya existentes.

Funcionamiento general

En las redes ART existen dos tipos de pesos, los llamados W, que son pesos feedforward entre la capa oculta (o de entrada según se vea el modelo como de dos o tres capas) y la capa de salida, y los llamados T, que son pesos feedback entre la capa de salida y la capa oculta (o de entrada, según se vea).

Los pesos feedforward (W) tienen el mismo valor que los feedback (T), pero normalizados:


W = {T \over \sum T+\gamma}

Donde γ es un parámetro que toma generalmente el valor 0'5, menos en la inicialización de los pesos que se recomienda que valga 1.

El funcionamiento de un modelo ART se divide en cuatro fases:

  • Fase de Inicialización
    • Se inicializan los parámetros de la RNA y se establecen las señales de control.
    • Se inicializan los pesos de la siguiente manera:

W_{ij} = {1 \over 1+N}
para conexiones hacia adelante, siendo N el número de entradas a la RNA.
Tij = 1 para conexiones hacia atrás
Mediante las señales de control (ganancia y reinicio) se controla el flujo de datos a través de la RNA y se pasa a las distintas fases.
  • Fase de Reconocimiento
En la fase de reconocimiento se efectúa una operación con los datos de entrada y los pesos W asociados a cada neurona de la capa de salida, el resultado de esta operación debe indicar qué clase tiene mayor prioridad para ver si los datos de entrada entran en resonancia con ella. Por ejemplo, se podría calcular la distancia euclídea entre los datos de entrada y los pesos W, la clase ganadora sería aquella cuyo W estuviese más cerca de los datos de entrada y por lo tanto sería la primera a la que se le intentaría asociar dicho patrón.
  • Fase de Comparación
El vector de entrada y el vector producido por la capa de salida son comparados en la capa de entrada y el resultado obtenido se envía al control de reinicio.
El objetivo es obtener una medida de similitud entre el vectol de entrada y el vector prototipo que surge de la capa de salida
  • Fase de Búsqueda
De no representar la neurona ganadora la categoría del vector de entrada, esta neurona se desactiva y se empieza la búsqueda por otras categorías que ya posea la red. Se repiten entonces los pasos anteriores hasta que se encuentre una neurona ganadora que represente la categoría del vector de entrada.
Si se repitiera el proceso hasta que no quedara ninguna neurona se llegaría a una situación de saturación de la red que podría solucionarse ampliando el número de neuronas de la RNA de forma dinámica.
  • Diagrama de flujo de una red ART

Diagrama Flujo red ART.png

Modelo de aprendizaje

Estructura básica de una red ART.

Un sistema ART básico es un modelo de aprendizaje no supervisado. Normalmente consta de un campo de comparación y un campo de reconocimiento que a su vez se compone de un parámetro de vigilancia y de un módulo de reinicialización. El parámetro de vigilancia tiene una influencia considerable en el sistema: un mayor valor del parámetro de vigilancia produce recuerdos muy detallados, mientras que valores más pequeños de dicho parámetro producirá recuerdos más generales.

El campo de comparación toma un vector de entrada (una matriz bidimensional de valores) y transfiere su mejor coincidencia al campo de reconocimiento. Su mejor coincidencia estará en aquella neurona cuyo conjunto de pesos (vector de peso) se acerque más al vector de entrada. Cada neurona del campo de reconocimiento emite una señal negativa (proporcional a la calidad de coincidencia de dicha neurona con el vector de entrada) para cada una de las neuronas del campo de reconocimiento provocando una inhibición de su valor de salida. De esta manera el campo de reconocimiento exhibe una inhibición lateral, permitiendo que cada neurona en él represente una categoría en la que se clasifican los vectores de entrada. Después de que el vector de entrada es clasificado, el módulo de reinicialización compara la intensidad de la coincidencia encontrada por el campo de reconocimiento con el parámetro de vigilancia. Si el umbral de la vigilancia se cumple, se inicia el entrenamiento. De lo contrario, si el nivel de coincidencia no cumple con el parámetro de vigilancia, la neurona de reconocimiento disparada se inhibe hasta que un vector de entrada se aplique el nuevo.

El entrenamiento se inicia sólo al final del procedimiento de búsqueda, en el cual las neuronas de reconocimiento son desactivadas una a una por la función de reinicio hasta que el parámetro de vigilancia se satisface con una coincidencia de reconocimiento. Si ninguna coincidencia encontrada por las neurona de reconocimiento supera el umbral de vigilancia una neurona no comprometida se ajusta para que concuerde con el vector de entrada.

Entrenamiento

Hay dos métodos básicos de entrenar una red neural ART: lento y rápido. En el método lento el grado de entrenamiento de los pesos de la neurona de reconocimiento hacia el vector de entrada se calcula a valores continuos con ecuaciones diferenciales y por lo tanto depende del tiempo durante el cual el vector de entrada esté presente. Con el método rápido, se utilizan ecuaciones algebraicas para calcular el grado de ajustes de peso, usándose valores binarios. Si bien el aprendizaje rápido es eficaz y eficiente para ciertas tareas, el método de aprendizaje lento es biológicamente posible y puede usarse con redes en tiempo continuo (es decir, cuando el vector de entrada varía de forma continua).

Tipos de ART

ART 1

ART 1[1] [2] Es el tipo más sencillo de red ART, sólo acepta entradas binarias.

Trabaja con un operador duro, el cual hace posible las salidas binarias.

Aplicaciones: Reconocimiento de letras y figuras con patrones de colores en blanco y negro.

ART 2

ART 2[3] Aumenta las capacidades de la red al soportar esta valores de entrada continuos.

ART 2-A

ART 2-A[4] es una forma simplificada de ART-2 con un tiempo de ejecución drásticamente acelerado, y con resultados cualitativos que rara vez son inferioes a los obtenidos por una red ART-2 completa

ART 3

ART 3[5] se basa en ART-2 mediante la simulación de rudimentarios neurotransmisores y regulación de actividad sináptica mediante la incorporación de simulaciones de concentraciones de iones de sodio (Na +) y calcio (Ca2+) en las ecuaciones del sistema, lo que origina más realismo en la simulación de las condiciones fisiológicas en las que se disparan las neuronas biológicas.

ART difuso

ART difuso[6] aplica la lógica difusa en el reconocimiento de patrones de ART, aumentando así la generalización. Una opcional y muy útil característica de ART difuso es el complemento de código, una forma de incorporar la ausencia de elementos en las clasificaciones de patrones que sirve para prevenir la creación de categorías ineficientes e innecesarias.

ARTMAP

Visión general de ARTMAP.

ARTMAP,[7] también conocido como ART Predictivo, combina de unidades de ART-1 o ART-2 ligeramente modificadas formando una estructura de aprendizaje supervisado, donde la primera unidad tiene los datos de entrada y la segunda unidad toma la salida de datos correctos, se utiliza para posibilitar el mínimo ajuste del parámetro de vigilancia en la primera unidad con el fin de obtener una clasificación correcta.

ARTMAP difuso

ARTMAP difuso[8] como ARTMAP pero utilizando unidades ART difuso, dando como consecuencia un aumento de la eficacia.

Bibliografía

  • Wasserman, Philip D. (1989) (en inglés). Neural computing: theory and practice. New York: Van Nostrand Reinhold. ISBN 0-442-20743-3. 
  • Carpenter, G.A.; Grossberg, S. (1986). «Absolutely stable learning of recognition codes by a self-organizing neural network» en American Institute of Physic (AIP). Conference Proceedings 151: Neural Networks for Computing, 77-85.

Referencias

  1. Carpenter, G.A. & Grossberg, S. (2003), Adaptive Resonance Theory, In Michael A. Arbib (Ed.), The Handbook of Brain Theory and Neural Networks, Second Edition (pp. 87-90). Cambridge, MA: MIT Press
  2. Grossberg, S. (1987), Competitive learning: From interactive activation to adaptive resonance, Cognitive Science (Publication), 11, 23-63
  3. Carpenter, G.A. & Grossberg, S. (1987), ART 2: Self-organization of stable category recognition codes for analog input patterns, Applied Optics, 26(23), 4919-4930
  4. Carpenter, G.A., Grossberg, S., & Rosen, D.B. (1991a), ART 2-A: An adaptive resonance algorithm for rapid category learning and recognition, Neural Networks (Publication), 4, 493-504
  5. Carpenter, G.A. & Grossberg, S. (1990), ART 3: Hierarchical search using chemical transmitters in self-organizing pattern recognition architectures, Neural Networks (Publication), 3, 129-152
  6. Carpenter, G.A., Grossberg, S., & Rosen, D.B. (1991b), Fuzzy ART: Fast stable learning and categorization of analog patterns by an adaptive resonance system, Neural Networks (Publication), 4, 759-771
  7. Carpenter, G.A., Grossberg, S., & Reynolds, J.H. (1991), ARTMAP: Supervised real-time learning and classification of nonstationary data by a self-organizing neural network, Neural Networks (Publication), 4, 565-588
  8. Carpenter, G.A., Grossberg, S., Markuzon, N., Reynolds, J.H., & Rosen, D.B. (1992), Fuzzy ARTMAP: A neural network architecture for incremental supervised learning of analog multidimensional maps, IEEE Transactions on Neural Networks, 3, 698-713

Enlaces externos

Sitio web de Stephen Grossberg.

BU Cognitive and Neural Systems Technology Lab

Implementación de ART para aprendizaje no supervisado (ART 1, ART 2A, ART 2A-C y ART distance) puede encontrarse en el sitio http://users.visualserver.org/xhudik/art/


Wikimedia foundation. 2010.

Mira otros diccionarios:

  • ART — o ART puede referirse a: Arte Arte, en varios idiomas. Art decó, un movimiento de diseño popular a partir de 1920 hasta 1939 Art rock, un amplio subgénero de la música rock que se caracteriza por su tendencia experimental. Op art, un movimiento… …   Wikipedia Español

  • RNA interference — (RNAi) is a mechanism that inhibits gene expression at the stage of translation or by hindering the transcription of specific genes. RNAi targets include RNA from viruses and transposons (significant for some forms of innate immune response), and …   Wikipedia

  • RNA Induced Silencing Complex — Unter RNA Interferenz (RNAi, auch RNA Silencing) versteht man einen natürlichen Mechanismus in eukaryotischen Zellen, der die Genexpression einzelner Gene hemmt. Bei dieser Genregulation ist immer RNA als zielerkennendes Molekül beteiligt. Nach… …   Deutsch Wikipedia

  • RNA silencing — Unter RNA Interferenz (RNAi, auch RNA Silencing) versteht man einen natürlichen Mechanismus in eukaryotischen Zellen, der die Genexpression einzelner Gene hemmt. Bei dieser Genregulation ist immer RNA als zielerkennendes Molekül beteiligt. Nach… …   Deutsch Wikipedia

  • RNA-Welt — Die chemische Evolution ist die Entstehung der organischen Molekülen aus anorganischen Molekülen (Abiogenese) im Hadaikum zwischen der Entstehung der Erde vor etwa 4,6 Milliarden Jahren und der Entstehung des Lebens (Beginn der biologischen… …   Deutsch Wikipedia

  • ART (antiretroviral therapy) — Treatment that suppresses or stops a retrovirus. One of the retrovirus is the human immunodeficiency virus (HIV) that causes AIDS. Retroviruses are so named because they carry their genetic information in the form of RNA rather than DNA so that… …   Medical dictionary

  • R-RNA — Die ribosomale Ribonukleinsäure, abgekürzt rRNA, ist eine Ribonukleinsäure, die in den Ribosomen vorkommt. Die rRNA ist wie die tRNA eine non coding RNA. Sie trägt somit keine genetische Information, die in Proteine umgeschrieben wird, sondern… …   Deutsch Wikipedia

  • Ribosomale RNA — Die ribosomale Ribonukleinsäure, abgekürzt rRNA, ist eine Ribonukleinsäure, die in den Ribosomen vorkommt. Die rRNA ist wie die tRNA eine non coding RNA. Sie trägt somit keine genetische Information, die in Proteine umgeschrieben wird, sondern… …   Deutsch Wikipedia

  • Short hairpin RNA — Unter RNA Interferenz (RNAi, auch RNA Silencing) versteht man einen natürlichen Mechanismus in eukaryotischen Zellen, der die Genexpression einzelner Gene hemmt. Bei dieser Genregulation ist immer RNA als zielerkennendes Molekül beteiligt. Nach… …   Deutsch Wikipedia

  • Boten-RNA — Die Funktion der mRNA in einer eukaryotischen Zelle. DNA wird im Zellkern mittels RNA transkribiert. Die prozessierte mRNA wird in das Cytoplasma transportiert und an den Ribosomen für die Proteinsynthese …   Deutsch Wikipedia