COMPUTACION Acta Científica Venezolana, 50: 167–172, 1999 CMACPAR NEUROCONTROLADOR PARALELO MODIFICADO PARA CONTROL DE PROCESOS Esmeralda Ramos y Rina Surós Centro de Computación Paralela y Distribuida, Facultad de Ciencias, Universidad Central de Venezuela. e-mail: [email protected]; [email protected] Recibido: 16/12/97 ; Revisado: 11/01/99 ; Aceptado: 23/02/99 RESUMEN: CMACPAR es un Neurocontrolador Paralelo orientado a sistemas que operan en tiempo real como los sistemas de control de procesos. Sus principales características son: un rápido algoritmo de aprendizaje, un reducido número de cálculos, alta capacidad de generalización, aprendizaje local y paralelismo intrínseco. Este tipo de neurocontroladores es muy utilizado en aplicaciones en tiempo real como las requeridas en refinerías, plantas hidroeléctricas, fabricas, etc. En este trabajo se presenta el análisis y la implementación paralela de un esquema modificado del Modelo Cerebelar CMAC para el mapeo de espacios n-dimensionales mediante la utilización de un algoritmo paralelo de granularidad media. La modificación propuesta al esquema de manejo de memoria permite una reducción significativa de los tiempos de entrenamiento y de la cantidad de memoria requerida. Palabras clave: Neurocontroladores, CMAC, control de procesos, redes cerebelares paralelas. CMACPAR: MODIFIED PARALLEL NEUROCONTROLLER FOR CONTROL PROCESSES ABSTRACT: CMACPAR is a Parallel Neurocontroller oriented to real time systems as for example Control Processes. Its characteristics are mainly a fast learning algorithm, a reduced number of calculations, great generalization capacity, local learning and intrinsic parallelism. This type of neurocontroller is used in real time applications required by refineries, hydroelectric centers, factories, etc. In this work we present the analysis and the parallel implementation of a modified scheme of the Cerebellar Model CMAC for the n-dimensional space projection using a mean granularity parallel neurocontroller. The proposed memory management allows for a significant memory reduction in training time and required memory size. Key Words: Neurocontrollers, CMAC, control processes, parallel cerebellar network. 1 INTRODUCCION Los neurocontroladores (redes neuronales usadas para el aprendizaje de control de procesos) emergen como una alternativa de los sistemas de control en tiempo real. Un tipo particular de neurocontrolador es el modelo CMAC (Cerebellar Model Arithmetic Computer) propuesto por James Albus1 . El modelo CMAC basa su funcionamiento en el cerebelo y emula la forma en como este procesa la información. Se caracteriza por un rápido algoritmo de aprendizaje, un reducido número de cálculos, alta capacidad de generalización, aprendizaje local y paralelismo intrínseco. El modelo CMAC ha sido probado experimentalmente5 mostrando por lo general un comportamiento satisfactorio en lo referente al tiempo necesario para realizar el entrenamiento, la cantidad de memoria utilizada para la Base de Conocimiento y la capacidad de generalización al ser interrogado. Con la finalidad de mejorar el comportamiento del modelo CMAC respecto a la cantidad de tiempo de entrenamiento requerido para aplicaciones en tiempo real, así como a la optimización de la cantidad de memoria necesaria para almacenar la base de conocimiento, se propone una implementación paralela del modelo CMAC aplicando un esquema de reducción de memoria particular8 . Se presenta en la Sección 2 una descripción del mo- delo CMAC, así como su funcionamiento y el esquema de reducción de memoria propuesto. En la Sección 3 se muestra el análisis de independencia de datos y/o procesos del modelo CMAC que da origen al esquema paralelo implantado y se describe el ambiente de multiprogramación utilizado para la implementación. En la Sección 4 se presentan, analizan y comparan los resultados obtenidos de las implementaciones secuencial y paralela. Para finalmente mostrar las conclusiones obtenidas en la Sección 5. 2 EL MODELO CMAC El modelo CMAC es considerado un dispositivo que transforma un vector de entrada, en un vector de salida asociado, con la característica de que sólo un pequeño subconjunto de la base de conocimiento (pesos) interviene en el cálculo de la salida5 . El modelo CMAC se define formalmente como una serie de mapeos que tratan de emular los procesos llevados a cabo en el cerebelo. Estos mapeos se especifican a continuación: S)M )A)p donde: S representa un vector de entrada de la forma S s1 ; s2 ; : : : ; sn . ( ) = 168 Ramos y Surós Figura 1. Esquema de reducción de memoria. M conjunto de funciones de cuantificación utilizadas para decodificar a S . A conjunto de pesos definidos por el conjunto M p es el vector de salida calculado. El mapeo S ) p (si ) mi ) posee todas las características de una función p h S . Un conjunto de L operaciones de CMAC sobre las mismas entradas produce el mapeo H : S ) P ó P H S donde H : h1 ; h2 ; : : : ; hl 1 . Para el mapeo S ) M se define mi como un conjunto de funciones de cuantificación asignadas para transmitir los valores correspondientes de la variable si ; y se define mi mi , cuyos elementos son máximamente estimulados por un valor particular de si (si ) mi ). El tamaño de cada función de cuantificación se denomina factor de generalización (c). En el mapeo M ) A, se determina a partir del conjunto mi , el conjunto de pesos A que intervendrá en el cálculo de la salida p (Dim A = factor de generalización c). El mapeo A ) p consiste en la suma de los pesos identificados por el conjunto A para obtener la salida p. Esto indica que los pesos necesarios para el cálculo de p están localizados en "clusters"definidos por el conjunto A , lo que lo convierte en un aprendizaje local. El valor de p obtenido se compara contra un valor esperado y los pesos que participaron en el cálculo, son corregidos de ser necesario. La corrección de los pesos se realiza con la Regla Delta, como se muestra en la siguiente expresión: = ( ) = ( ) Winuevo donde =W iviejo + w W = p jA pj i i i i donde p es el vector de salida deseado, p es el vector de salida calculado y representa la tasa de aprendizaje. 2.1 Requerimientos de memoria del modelo CMAC El modelo CMAC utiliza para el almacenamiento del con- Figura 2. Paralelismo en las componentes del vector de salida P. junto de pesos A un esquema de memoria distribuida. La cantidad de localizaciones de memoria necesarias para almacenar una función de n componentes, cada una con una resolución r, viene dada por la expresión c r=c n , donde c es el factor de generalización y r=c indica la cantidad de funciones de cuantificación para cada variable. Para este modelo es posible obtener mayores ahorros en los requerimientos de memoria haciendo uso de esquemas de reducción de memoria como por ejemplo, técnicas de codificación Hashing, en la selección de las localizaciones (pesos) del conjunto A . Se propone un esquema de reducción de memoria que consiste en mapear cada componente del vector de entrada en una memoria denominada MemHashing (la cual almacenará los pesos que se deben sumar para obtener una salida p) según el siguiente esquema: a. La memoria MemHashing se organiza como un vector de r c posiciones, donde cada posición se corresponde con las funciones de cuantificación definidas para cada una de las componentes de entrada, ver Figura 1. Habrán tantos vectores MemHashing como componentes tenga el vector de entrada. b. Al presentar al modelo un patrón de entrenamiento, cada una de las componentes de entrada se cuantifican para determinar el conjunto de funciones que le corresponden (Mapeo S ) M ). Una vez identificadas, se conocerán los pesos que deben sumarse para obtener una salida (Mapeo M ) A). Estos pesos se ubican en el vector MemHashing haciendo corresponder la identificación de cada función de cuantificación determinada, con la respectiva posición en el vector. Así, los mapeos S ) M y M ) A se solapan en un único mapeo S ) A. De esta manera el modelo original propuesto por Albus2 se modifica. c. Al sumar el contenido de las posiciones ubicadas en el vector, se obtiene la salida p (Mapeo A ) p). La eficiencia de este esquema fue probada por E. Ramos8 . Los resultados muestran que la reducción de memoria alcanzada es del 30%. ( ) + 1 169 CMACPAR: neurocontrolador paralelo 3 CMAC EN PARALELO Los resultados mostrados por Miller5 y Thompson9 ponen de manifiesto el buen rendimiento del modelo CMAC en lo referente a los tiempos de entrenamiento. Sin embargo las aplicaciones del tipo control de procesos tienen exigencias de respuesta en tiempo real. Explotaremos al máximo el paralelismo intrínseco del modelo y optimizaremos la cantidad de memoria necesaria para el almacenamiento de la Base de Conocimiento utilizando el esquema de reducción de memoria propuesto en la Sección 2 en la implementación paralela que se propone. A continuación veamos un análisis de la independencia de datos y/o procesos del modelo3;6 . 3.1 Análisis de independencia de datos El mapeo S ! p realizado por el modelo CMAC se proyecta sobre un espacio unidimensional. Sin embargo, cuando es necesario generar un vector P n-dimensional como salida, n redes CMACs deben realizar el mapeo S ! pi . De esta manera cada CMAC aprende un comportamiento diferente, el cual viene expresado por pi hi S , i ; : : : ; n; donde pi representa la i-ésima componente del vector P . De lo anterior se desprende que la obtención de cada componente del vector P es independiente. Esto sugiere utilizar como técnica paralela el Particionamiento del Rango. Se propone el esquema de paralelismo en las componentes del vector de salida P . Lo que se representa como: 8 m = ( ) =1 R > > < R R !R = > > : m ! ! m n .. . ! R m donde 2 6 P =6 4 p1 p2 pn 3 p1 p2 7 .. . pn 7 p 5 i 2 R: Este esquema paralelo requiere un conjunto de procesadores operando en cada uno de ellos una CMAC secuencial. Cada CMAC genera una componente pi del vector de salida P , P 2 Rn , una vez suministrado a cada CMAC el mismo vector de entrada S (ver Figura 2). Cada red es entrenada con su propio conjunto de entrenamiento, y una copia de todos los vectores de entrada S ; de esta manera cada CMAC puede aprender un comportamiento discreto distinto. En este esquema el número de CMACs requerido es igual a la dimensión del vector de salida P . El esquema propuesto presenta un tipo de granulariad media que resulta idóneo para el ambiente de multiprogramación disponible: máquina PARSYTEC MultiCluster3 DE (MC-3 DE)7 . Este es un computador MIMD con Memoria Distribuida, donde la comunicación entre los procesadores se lleva a cabo a través de una red de interconexión, posee ocho (8) Transputers, cada uno con 4 MB de memoria RAM. El computador anfitrión es una estación Sun Sparc Station 2. El equipo utilizado se encuentra en el Centro de Computación Paralela y Distribuida (CCPD) de la Facultad de Ciencias de la U.C.V. 4 COMPARACION DE CMAC PARALELO Y SECUENCIAL En esta Sección se presentan los resultados obtenidos de la implementación del esquema de paralelismo en las componentes del vector P (esquema de granularidad media), así como su comparación con los resultados de la implementación del esquema secuencial4 . Para el entrenamiento se seleccionaron funciones que cumplen con las características de ser continuas en todo el dominio, y no polinómicas2;5 . Esto se debe al aprendizaje de tipo local que presenta el modelo, el cual utiliza la regla delta para asegurar convergencia a un mínimo local, siempre y cuando el dominio de interés se cubra totalmente. Para verificar el comportamiento del modelo se selecciona un conjunto de funciones que constituyen los Vectores Función (VF) que a continuación se definen: a. Vector Función NÆ 1. Sea f Rm ! Rn : fi (x) = Y m j =1 sen [20 80] con xj 2 ; . b. Vector Función NÆ 2. Sea f fi (x) = sen [50 100] con xj 2 ; . c. Vector Función NÆ 3. Sea f fi (x) = [50 100] sen Pm j =1 90+ xj i xj 179 + i :R !R m P =1 x ! m j n j 50 + 5i :R !R P =1 m 2 cos n m j 90+ xj i con xj 2 ; . Los conjuntos de entrenamiento y "recall"fueron generados utilizando el método de Entrenamiento Aleatorio10 que consiste en generar uniformemente los puntos sobre el dominio. Cada conjunto consta de sesenta (60) patrones que caracterizan de manera puntual a cada coordenada (función) dentro del VF correspondiente. 4.1 Resultados obtenidos a partir del entrenamiento El entrenamiento con los conjuntos generados aleatoriamente se llevó a cabo variando los siguientes parámetros: a. Número de componentes del vector S ;:::; b. Constante de Aprendizaje : . 6 c. Tolerancia del orden d. Número de Procesadores P ;:::; =09 1 10 =2 8 =2 10 170 Ramos y Surós Figura 3. Tiempo de entrenamiento secuencial versus paralelo, para VF 1, VF 2 y VF 3 respectivamente. Figura 4. Aceleración promedio por número de componentes para VF 1, VF 2 y VF 3 respectivamente. Figura 5. Eficiencia promedio por número de componentes para VF 1, VF 2 y VF 3 respectivamente. Figura 6. Porcentaje de ahorro promedio por número de componentes en el tiempo de entrenamiento para VF 1, VF 2 y VF 3 respectivamente. 171 CMACPAR: neurocontrolador paralelo Figura 7. Errores Máximo y Promedio cometidos durante la fase de "recall". Para comparar el rendimiento durante el entrenamiento, tanto del esquema secuencial como el del paralelo, se tomaron en consideración los valores de Tiempo Secuencial y Tiempo Paralelo. El comportamiento del esquema implementado durante el entrenamiento fue similar para los tres (3) Vectores Función. Los resultados experimentales que se realizaron para los Vectores Función NÆ 1, NÆ 2 y NÆ 3, , se discuten a continuación con m i.- En la Figura 3 se comparan las gráficas correspondientes a tiempos de entrenamiento, del esquema secuencial versus el esquema paralelo, para los Vectores Función . El tiempo paralelo fue muNÆ 1, NÆ 2 y NÆ 3, con m cho menor que el tiempo secuencial, lo que se evidencia al incrementar el número de procesadores (equivalente al número de CMACs) y por lo tanto la dimensión del rango del Vector Función. ii.- Con respecto a la aceleración, se observa un comportamiento superlineal a medida que se incrementa el número de procesadores, esto evidencia la propiedad del esquema paralelo de ser infinitamente escalable. En la Figura 4, se muestran, para cada Vector Función, las aceleraciones promedio por número de componente. iii.- El hecho de que las eficiencias de todas las experimentaciones se encuentren muy cercanas a uno, indica que la implementación paralela es altamente eficiente. Esto puede apreciarse en la Figura 5. iv.- A medida que se incrementa el número de procesadores (el número de CMACs) el ahorro es mayor; lo que refleja el excelente comportamiento del esquema paralelo. Esto puede apreciarse en la Figura 6, para los tres VF respectivamente. En resumen, los resultados obtenidos a partir del entrenamiento indican la óptima calidad del esquema paralelo implementado, acelerando de manera superlineal el esquema secuencial, ahorrando entre un 50% y 90% el tiempo para el entrenamiento, y corroborando con valores muy cercanos a uno (1), la notable eficiencia del esquema. =5 =5 4.2 Resultados obtenidos a partir del "recall" Para comprobar la capacidad de generalización, una vez concluido el entrenamiento se interrogó a cada CMAC con un conjunto de "recall"diferente al utilizado para la fase de entrenamiento. Los vectores que conforman estos conjuntos, se generaron de manera tal que no pertenecieran a las vecindades de los vectores de entrenamiento, pero sí al espacio de entradas. Para ello se introdujo un porcentaje de ruido al momento de su generación. Los resultados obtenidos durante el interrogatorio fueron iguales tanto para el esquema paralelo como para el esquema secuencial, lo que evidencia que la calidad del aprendizaje es similar para ambos esquemas, es decir, alcanzan el mismo grado de generalización. En la Figura 7, se muestran las curvas de comportamiento de los errores Máximos y Promedios cometidos durante la fase de "recall"para el Vector Función NÆ 1. Para los otros dos Vectores Función el comportamiento de los errores es similar. La curva de Error Promedio tiene el comportamiento esperado: a medida que se incrementa el número de CMACs, el Error Promedio tiene un comportamiento descendiente. La curva de Error Máximo cometido entre la salida esperada y la calculada por la red, también presenta un comportamiento globalmente descendiente, aunque con una trayectoria irregular. Los errores promedios cometidos entre las salidas esperadas y calculadas 2), tanto en el caso secuencial como en el son del O( paralelo. 10 5 CONCLUSIONES Los resultados obtenidos de la experimentación, sobre el estudio y la implementación paralela de un esquema modificado del Modelo Cerebelar CMAC, muestran que es viable construir un sistema paralelo basado en un neurocontrolador. El modelo cerebelar CMAC propuesto por James Albus, constituye una red neuronal de funcionamiento simple gracias a la ausencia de capas en su estructura, lo cual hace que el algoritmo de entrenamiento sea muy rápido, esto convierte a CMAC en un neurocontrolador eficiente para ser utilizado en situaciones que requieren respuestas inmediatas, como es el caso de los sistemas de control de procesos en tiempo real. Al mismo tiempo, la característica del modelo de ser altamente paralelo, permite explotar paralelismo de rango. Los experimentos mostraron que el modelo se comporta bastante bien para una constante de aprendizaje muy cercana a uno (1) para los tres (3) Vectores Función. El esquema paralelo implementado puede catalogarse como excelente, ya que presenta una eficiencia máxima y una aceleración superlineal, convirtiéndolo en un algoritmo infinitamente escalable. Los errores Máximo y Promedio cometidos durante la fase de "recall"presentan el comportamiento esperado: globalmente descendientes. Este trabajo permitió generar una implementación novedosa del modelo cerebelar CMAC basado en un esquema de manejo de memoria, que disminuye significativamente la cantidad de tiempo requerido para el entrenamiento mediante el uso de herramientas paralelas, reduce la can- 172 Ramos y Surós tidad de posiciones de memoria necesarias para el almacenamiento de los pesos y además elimina un paso en el conjunto de mapeos realizados por el modelo. REFERENCIAS 1. Albus, J. A Model of the Brain for Robot Control. Part 1: Defining Notation. BYTE 4(6): 10-34, 1979. 2. Albus, J. A Model of the Brain for Robot Control. Part 2: A Neurologycal model. BYTE 4(7): 54-84, 1979. 3. Chaudhrui, P. Parallel Algoritms design and analysis. Advances in computer sciences. Series Richard Brent Editor, Prentice Hall, 1992. 4. Jimenez, S. Estudio Comparativo de Diferentes Esquemas de Reducción de Memoria en el Modelo Cerebelar CMAC. Trabajo Especial de Grado, Escuela de Computación, Facultad de Ciencias, UCV. Septiembre, 1995. 5. Miller, W., Glanz, F. and Kraft, L. CMAC: An Associative Neural Network Alternative to Backpropagation. Proceedings of the IEEE 78(10): 1564-1573, 1990. 6. Nordstron, T. and Svensson, B. Using and Design Massively Parallel Computers for Artificial Neural Networks. Journal of Parallel and Distributed Computing 14: 260-283, 1992. 7. Parsytec Computer GmbH. Manuales de Parix Documentation. Release 1.1, Septiembre, 1992. 8. Ramos, E. El modelo CMAC como una alternativa para el control de procesos. Trabajo de Ascenso. Escuela de Computación. Facultad de Ciencias. UCV. Mayo, 1995. 9. Thompson, D. Neighborhood Sequential and Random Training Techniques for CMAC. IEEE 6(1): 198-201, 1995. 10. Wong, Y. and Sideris, A. Learning Convergen-ce in the Cerebellar Model Articulation Controller IEEE Transactions on Neural Networks 3(1): 116, 1992.
© Copyright 2024