"Resúmenes de Tutoriales"

 
 
 
 
 
 
 
 

 
 
 
 

T1 “Neural network paradigm and its application”, Dr. Michael Packianather, Manufacturing Engineering Centre, Cardiff University, Reino Unido

This tutorial is aimed at researchers who are familiar with neural networks in general. However, a brief introduction to neural networks will be given. Although there are several types of neural networks, some of the popular topologies will be considered. The network architecture is separated into feed-forward and recurrent networks. The learning algorithm used to train the neural network is broadly classified into supervised, unsupervised and reinforcement learning. The back-propagation algorithm and competitive learning algorithm will be covered. The application of neural networks will be highlighted.

In this tutorial some case studies of neural networks will be presented. These case studies deal with some real world applications to demonstrate the potential of this artificial intelligence based technology. The applications are identifying defects on plywood, fault diagnosis on a RC network, and automatic interpretation of ECG signals and arrhythmia detection. The advantage of using a modular approach instead of using a single large neural network will be included.

 

[UP]

 
 
 
 

T2 “Aspectos teóricos y prácticos de lógica difusa”, Dr. Claudio Held & Dr. Doris Sáez, DIE, Universidad de Chile

Durante los últimos años, la lógica difusa ha generado mucho interés en aplicaciones industriales debido a que es capaz de tratar problemas que no han sido solucionados con técnicas convencionales y que son altamente no lineales y/o presentan incertidumbre en su formulación. Este potencial de la lógica difusa se ve reflejado en el creciente número de patentes de productos con esta tecnología, principalmente en Japón. (Driankov et al., 1996). La lógica difusa también es útil para traducir conocimiento de expertos humanos en sistemas de apoyo a la toma de decisiones.

Este tutorial está dividido en cuatro partes. Las dos primeras son presentaciones expositivas, mientras que las dos últimas son sesiones de laboratorios, en que los alumnos participan activamente en grupos pequeños.

En la primera parte de este tutorial se explican los fundamentos de la teoría de lógica difusa, incluyendo las nociones básicas de conjuntos difusos, reglas difusas, etc. Se presentan sistemas basados en reglas, incluyendo el método de implicación de Mamdani, con el que se construye una clase de sistemas de control. Se muestran varias aplicaciones, tales como el entrenador de básquetbol, un reconocedor de dígitos manuscritos, una herramienta de detección de fraude en llamadas de larga distancia, y un sistema de clasificación de etapas de sueño en infantes.

En la segunda parte se explican los modelos de Takagi & Sugeno, su método de identificación, y se muestra la aplicación de estos modelos para la predicción de variables térmicas de una planta termoeléctrica de ciclo combinado. Luego se presenta el diseño de controladores predictivos de Takagi & Sugeno, y una aplicación al control económico supervisor de plantas térmicas. Finalmente, se explica el diseño de controladores PID difusos, que están siendo ampliamente utilizados y comercializados a nivel industrial. Estos controladores utilizan una base reglas de Mamdani y consideran el comportamiento de un controlador proporcional integral derivativo convencional para el diseño de las reglas difusas.

La tercera y cuarta parte de este tutorial considera la participación en grupos de 2 o 3 personas en los siguientes laboratorios:

· Lab. de Sistemas Inteligentes: Control de Mamdani y Sistema Experto Básico (duración de la sesión: 85 minutos)
· Lab. de Automática: Control PID difuso para el Estanque de Nivel o para el Motor de CC (duración de la sesión: 25 minutos)

Cada alumno debe inscribirse en una sesión de cada laboratorio, debiendo tomar una de las dos opciones en el caso de las aplicaciones de Control PID difuso (Estanque de Nivel o Motor de CC). Los cupos se completarán por orden de llegada.

[UP]

 
 

 

 
 

T3-A “Second Order Neural Networks”, Dr. Kazumi Saito, NTT Communication Science Lab., Kyoto, Japón

Improving convergence performance of learning in neural networks has been one of the long term research issues, especially for training larger scale networks. To this end, I will introduce second-order learning algorithms with regularization terms by focusing on regression (function approximation) problems. In this lecture, I will overview standard techniques for training neural networks. I will then describe a second order learning algorithm where the search direction is calculated on the basis of a partial BFGS (Broyden-Fletcher-Goldfarb-Shanno) update and a reasonably accurate step-length is calculated as the minimal point of a second-order approximation. I will also show that the combination of the second-order algorithm and a regularization term drastically improves the convergence performance, and at the same time, brings about excellent generalization performance. Finally, I will discuss the current limitations of second-order techniques, as well as future directions.

[UP]

 

 
 

T3-B “Visualization Techniques”, Dr. Kazumi Saito, NTT Communication Science Lab., Kyoto, Japón

Visualization techniques for automatically embedding complex data into a two or three dimensional space are used to intuitively understand essential data structures and obtain new insights into the data set. To this end, I will introduce a probabilistic approach by focusing on data visualization of thousands of real Web pages.

In this lecture, I will overview standard techniques for data visualization such as MDS (multi-dimensional scaling), Sammon mapping and SOM (self-organizing mapping). I will then describe a visualization method
where the embedding task is formalized as a probabilistic classification problem. I will also explain another visualization method based on probabilistic mixture models. Finally, I will discuss the current limitations of the probabilistic approach, as well as future directions.

[UP]

 
 

T4 “Teoría del Aprendizaje”, Dr. Pablo Zegers, Universidad de Los Andes, Chile

Se definirán algunos conceptos básicos para entender el comportamiento de un sistema que aprende. En especial se definirán con precisión que es una máquina consistente y cuando se puede decir que uno de estos sistemas ha generalizado. A continuación se revisará las desigualdades de concentración, en especial la de Hoeffding. Luego, utilizando argumento combinatoriales se revisará algunos conceptos básicos de la teoría de Vapnik y Chervonenkis para obtener desigualdades uniformes, válidas para toda distribución de datos. Se continuará estudiando la dimensión de Vapnik-Chervonenkis y su relación con la capacidad de un sistema que aprende. Para terminar el análisis teórico se revisará los conceptos de estabilidad de un sistema
frente a sus datos de entrenamiento como una forma de asegurar un buen nivel de generalización. A continuación se aplicará todos estos conceptos para desarrollar métodos prácticos, útiles para obtener sistemas que respondan en forma adecuada a datos que no estuvieron presentes durante la fase de
entrenamiento. La primera de estas aplicaciones a estudiar es la máquina de soporte vectorial. En particular, se va a estudiar la máquina de soporte vectorial en sus versiones epsilon-sensible y la versión de minimización de
error cuadrático. La segunda aplicación práctica va a ser como transiciones de fase que ocurren en el comportamiento de un sistema a medida que es entrenado pueden ser utilizadas para determinar cuando un sistema con una arquitectura arbitraria ha generalizado.

[UP]

 
 

T5 “El potencial de la inteligencia computacional para la minería de datos”, Dr. Richard Weber, DII, Universidad de Chile

La minería de datos (data mining) trata de encontrar patrones interesantes en grandes bases de datos. Algunos ejemplos clásicos son la segmentación de clientes, la detección de transacciones fraudulentas, la predicción de series de tiempo, entre otras. La complejidad de estas aplicaciones y el crecimiento de los datos disponibles requieren métodos sofisticados para revelar la información adecuada.

Aquí es donde entra la inteligencia computacional que provee técnicas avanzadas para la minería de datos como son por ejemplo las redes neuronales, la lógica difusa y los algoritmos genéticos. Estos métodos dejaron de ser teoría y hoy en día existe experiencia en aplicaciones identificando su potencial pero también sus limitaciones.

Este tutorial introduce las técnicas más importantes para la minería de datos, muestra su potencial en varias áreas de aplicación y presenta herramientas computacionales para llevar a cabo la Inteligencia Computacional.

Está dirigido a estudiantes interesados en aplicaciones de la inteligencia computacional y a profesionales trabajando con grandes bases de datos que quieren conocer nuevas técnicas para encontrar información útil mejorando de esta forma sus negocios.

[UP]

 
 

 

 
 

T6 “Integral Difusa para la Fusión de Información en visión computacional”, Dr. Aureli Soria-Frisch , Fraunhofer IPK-Berlin, Alemania

The relevance of information fusion methodologies increases due to the complementary development of computer and sensory technologies. Newly hardware and software facilities allow the inclusion of different information sources in a computer system. Information fusion basically attains the transformation of the information delivered by multiple sources into one representational form. The fused data does not only reflect information that can be extracted from the individual sources but also information not derivable from any of them on its own. Such an information gain characterizes the purpose of information fusion. Operator research in the context of fuzzy systems has generated a fruitful set of aggregation operators, e.g. fuzzy connectives, weighted ranking operators, Ordered Weighted Averaging (OWA) operators, Fuzzy Integrals. So-called fuzzy aggregation operators constitute a flexible alternative to operators traditionally used in information fusion. Among them it is worth pointing out the role of the fuzzy integral.

The concept of fuzzy integral is due to Sugeno, who presented in 1974 a mathematical approach within Fuzzy Computing for the simulation of multi-criteria evaluation taking into consideration some cognitive aspects. Sugeno's hypothesis is that the process of multi-criteria integration undertaken by human beings subsumes the linear combination of the different criteria with numerically expressed priorities, i.e. weighting sum strategy. Due to its relationship with cognitive processes and to its positive features as fusion operator, the fuzzy integral is employed in different application fields, where Decision Making and Subjective Evaluation represent the most natural ones. Furthermore fuzzy integrals were used in Computer Vision problems, both on Image Processing and Image Analysis, in a very early stage of research. In this context the fuzzy integral is mainly used because of its mathematical properties as fusion operator, which will be elucidated in the tutorial.

In spite of the flexibility, robustness, and interpretability that the fuzzy integral presents when being used as fusion operator, few information fusion applications, especially in Computer Vision, are based on it. This may be due to the complex theoretical background and to the lack of successful implementations of the methodology. Therefore the tutorial brings the fuzzy integral from a mathematical domain to the engineering domain. This goal is achieved in different steps.

First, an engineering framework for all fuzzy fusion operators, which is denoted as Soft Data Fusion, is developed. Furthermore different processing frameworks,
which go beyond the application of the fuzzy integral on its own, are developed. These frameworks are eventually applied for edge detection on color images, for the industrial inspection of high reflective materials, for the processing of document images, the segmentation of color images and for the industrial inspection of end consumer goods.

Second the tutorial gives the guidelines underlying the development of different methodologies, which can be employed in the automated parameterization of the fuzzy integral within computational intelligence systems. In this context Soft Computing methodologies present the advantage of being data-driven, what facilitates t he implementation of full automated systems for information fusion based on the fuzzy integral. Neurocomputing and Evolutionary Computing are the paradigms selected for the resolution of this problem in the here presented
tutorial.

[UP]


 
 

 

 
 

T7 “Inteligencia computacional en detección, diagnóstico y control tolerante a fallas”, Dr. Aldo Cipriano, DIE, Pontificia Universidad Católica de Chile

Desde la masificación del microprocesador a comienzos de los años setenta, la automatización de los procesos industriales ha experimentado un desarrollo formidable, lo que ha permitido reemplazar los controladores PID analógicos de aquel entonces por complejísimas interconexiones de múltiples sensores y actuadores con sofisticados sistemas computacionales para el control en tiempo real.

Como consecuencia de estos avances, la operación de los procesos así automatizados plantea también importantes desafíos. Uno de ellos ha sido el apropiado adiestramiento en estas tecnologías. Sin embargo, aún con operadores bien entrenados no es posible enfrentar en forma segura y confiable la operación de procesos muy complejos, que incluyen cientos o miles de lazos de control automático, si no se dispone de herramientas apropiadas. Entre estas herramientas se cuentan sistemas de apoyo al operador que monitorean el proceso y la instrumentación, detectando el mal desempeño de un lazo de control, saturaciones en variables manipuladas, grandes variaciones en las variables controladas, etc. Para detectar y diagnosticar automáticamente estas anomalías, generalmente denominadas “fallas”, estos sistemas de apoyo descansan en el análisis estadístico de las señales, complementado con sistemas expertos basados en reglas que capturan el conocimiento de ingenieros y operadores del proceso.

En procesos con fuertes interacciones, comportamientos no lineales y variantes en el tiempo, sistemas como los indicados sólo permiten un apoyo muy limitado a la operación. Ello explica el surgimiento de una nueva disciplina centrada en el estudio y la investigación de diversas arquitecturas para detección y diagnóstico de fallas y su utilización en sistemas de control tolerante a fallas, disciplina que ha experimentado en los últimos años un desarrollo explosivo. Estas arquitecturas emplean fundamentalmente métodos del control automático basado en modelos, como estimación de parámetros, observador de Luenberger, Filtro de Kalman, Filtro de Partículas y ecuaciones de paridad. Desde hace unos años se encuentran también en aplicación técnicas de inteligencia computacional, por ejemplo lógica difusa, sistemas expertos difusos, redes neuronales, sistemas neuro-fuzzy y algoritmos genéticos.

La exposición se iniciará con un planteamiento del problema y continuará con una descripción general de las diferentes arquitecturas que permiten enfrentarlo empleando métodos convencionales del control automático. A continuación, se revisará con más detalle la aplicación de las técnicas de inteligencia computacional, se presentarán resultados de diversos estudios de simulación y se dará una visión general acerca del desarrollo que la disciplina está experimentando, en particular en relación a la aplicación de la inteligencia computacional.

[UP]


 
 

 

 
 

T8 “Detección de Caras mediante Técnicas de Aprendizaje Estadístico”, Dr. Javier Ruiz del Solar & Ing. Rodrigo Verschae, DIE, Universidad de Chile

La detección computacional de caras consiste básicamente en determinar la posición de las caras presentes en una imagen o un video. Este es un problema bastante difícil de resolver, principalmente por la variabilidad que pueden presentar las caras humanas (distintas razas, distintas expresiones, presencia de barba o bigote, etc.) y por la variabilidad que puede existir en el proceso de adquisición de las imágenes (iluminación variable, rotaciones, traslaciones, distintas poses y escalas, etc.). Existen muchos métodos que intentan resolver este problema, sin embargo, los únicos que han sido capaces de resolverlo en forma general, es decir, que pueden detectar múltiples caras en ambientes dinámicos y en tiempo real, son aquellos basados en técnicas de aprendizaje estadístico. Bajo este paradigma el problema de la detección de caras se resuelve como un problema de clasificación de dos clases, la clase “caras” y la clase “no caras”.

En este tutorial se presentarán los métodos más exitosos de detección de caras existentes en la actualidad. Entre estos destacan los basados en máquinas de soporte vectorial (SVM – Support Vector Machine), en clasificadores de Bayes y en clasificadores tipo “boosting” (e.g. AdaBoost). Se describirá en detalle la construcción de un sistema estadístico de detección de caras, así como las metodologías de entrenamiento a ser utilizadas (boosting y bootstrapping).

Cabe señalar que las técnicas a ser descritas en este tutorial pueden ser utilizadas para resolver otros problemas de clasificación de dos clases, como por ejemplo: detección de tumores, detección de piel, detección de fallas, detección de manos y verificación biométrica de identidad (huellas dactilares, iris, retina, caras, firma, voz, etc.).

[UP]

 
 

T9 “Fundamentos de Computación Evolutiva”, Dr. Pablo Estévez, DIE, Universidad de Chile

El concepto Darwiniano de la supervivencia del más apto, así como los mecanismos genéticos de recombinación y mutación, pueden extenderse al campo de la computación. Este curso es una introducción tutorial a los algoritmos evolutivos, que no requiere de conocimientos previos del tema. La computación evolutiva consiste en paradigmas de optimización, aprendizaje y clasificación inspirados en los mecanismos de las evolución biológica. Estos modelos proveen de herramientas para construir sistemas inteligentes. Una característica de los algoritmos evolutivos es que son métodos de búsqueda basados en poblaciones de puntos. Cada punto (individuo) de la población representa una posible solución al problema a optimizar. Usualmente la población inicial es aleatoria. Luego sobre estos individuos se aplican mecanismos de selección, recombinación (crossover) y/o mutación, para generar una nueva población (generación). Estos operadores son de tipo estocástico. La población evoluciona guiada por una función de adaptación (fitness) que evalúa cuán apto es un individuo y le otorga un puntaje. Esta función se usa directamente por lo que no importa que ésta sea derivable o no.
En este curso se describirán los tres tipos más conocidos de algoritmos evolutivos: algoritmos genéticos (genetic algorithms), programación genética (genetic programming) y optimización por enjambre de partículas (particle swarm optimization). Se revisarán las principales aplicaciones de los algoritmos evolutivos, desde el punto de vista de la ingeniería, entre ellos la selección de características, la clasificación de patrones, la visualización de datos, y el diseño y optimización de redes neuronales.

[UP]