Contribuição ao Estudo de Fusão de Mapas Auto Organizáveis de Kohonen com Ponderação por meio de Índices de Validação de Agrupamentos

Tamanho: px
Começar a partir da página:

Download "Contribuição ao Estudo de Fusão de Mapas Auto Organizáveis de Kohonen com Ponderação por meio de Índices de Validação de Agrupamentos"

Transcrição

1 UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE CENTRO DE TECNOLOGIA PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA E DE COMPUTAÇÃO Contribuição ao Estudo de Fusão de Mapas Auto Organizáveis de Kohonen com Ponderação por meio de Índices de Validação de Agrupamentos Leandro Antonio Pasa Orientador: Prof. Dr. José Alfredo Ferreira Costa Tese de Doutorado apresentada ao Programa de Pós-Graduação em Engenharia Elétrica e da Computação da UFRN (área de concentração: Engenharia de Computação) como parte dos requisitos para obtenção do título de Doutor em Ciências. Número de ordem PPgEEC: D163 Natal, RN, Fevereiro de 2016.

2 Seção de Informação e Referência Catalogação da publicação na fonte. UFRN / Biblioteca Central Zila Mamede Pasa, Leandro Antonio. Contribuição ao Estudo de Fusão de Mapas Auto Organizáveis de Kohonen com Ponderação por meio de Índices de Validação de Agrupamentos / Leandro Antonio Pasa. - Natal, f.: il. Orientador: José Alfredo Ferreira Costa. Tese (Doutorado em Engenharia Elétrica e de Computação) - Universidade Federal do Rio Grande do Norte. Centro de Tecnologia - Programa de Pós- Graduação em Engenharia Elétrica e de Computação. 1. Comitês de máquinas - Tese. 2. Mapas auto-organizáveis de Kohonen - Tese. 3. Índice de validação de agrupamentos - Tese. I. Costa, José Alfredo Ferreira. II. Título. RN/UF/BCZM CDU 621.3:004

3 Contribuição ao Estudo de Fusão de Mapas Auto Organizáveis de Kohonen com Ponderação por meio de Índices de Validação de Agrupamentos Leandro Antonio Pasa Tese de Doutorado aprovada em 19 de fevereiro de 2016 pela banca examinadora composta pelos seguintes membros:

4

5 Este trabalho é dedicado à querida Carine e ao querido Eduardo.

6

7 Agradecimentos A Deus, pela força e iluminação sempre presentes em nossas vidas. A minha esposa Carine, pelo apoio, amor, paciência e compreensão durante a realização deste trabalho. À minha família, pelo apoio durante esta jornada, principalmente à minha mãe Teresinha (sempre presente) e ao meu pai Evaristo, que sempre incentivaram os seus filhos a estudar. Ao meu orientador, Professor José Alfredo Ferreira Costa, pela amizade e por compartilhar seus conhecimentos, me orientando neste caminho. Ao amigo Marcial Guerra de Medeiros, pela amizade, estímulo, contribuições fundamentais e todo o tempo dedicado para auxiliar neste trabalho. Ao amigo Fábio Augusto Procópio de Paiva, pela amizade e pelas sugestões para este trabalho. À Universidade Tecnológica Federal do Paraná, pelo apoio e tempo concedidos para a realização deste trabalho.

8

9 Resumo A quantidade de informações coletadas e armazenadas cresce a cada dia nas mais diversas áreas do conhecimento e técnicas de mineração de dados são aplicadas a estes conjuntos de dados com o objetivo de extrair conhecimento útil. A utilização de um ou outro algoritmo, ou o mesmo algoritmo com diferentes atributos pode levar a diferentes resultados, devido à diversidade dos conjuntos de dados. Na busca por soluções eficientes para este problema, foram desenvolvidos métodos de comitês de máquinas. Um comitê de máquinas é um conjunto de redes neurais trabalhando independentemente cujos resultados são combinados em uma única saída, alcançando uma melhor generalização do que cada uma das redes trabalhando separadamente. A proposta deste trabalho é desenvolver um novo método para comitês de mapas de Kohonen, em que a combinação (fusão) dos mapas seja ponderada por índices de validação de agrupamentos, que seja válido para combinação de mapas de tamanhos iguais e mapas de tamanhos diferentes. O algoritmo proposto foi testado em variados conjuntos de dados provenientes do repositório UCI e do Conjunto de Problemas Fundamentais de Agrupamento. As simulações computacionais demonstram que o método proposto neste trabalho é capaz de alcançar resultados promissores, conseguindo elevar a performance em comparação com um único mapa de Kohonen. Palavras-chave: Comitês de máquinas, Mapas auto-organizáveis de Kohonen, Índice de validação de agrupamentos.

10

11 Abstract The amount of collected and stored information is growing every day in several areas of knowledge and data mining techniques are applied to these datasets in order to extract useful knowledge. One or another algorithm, or the same algorithm with different attributes, can lead to different results due to the dataset diversity. To solve this problem, machines committees methods were developed. A machine committee is a set of neural networks working independently and the results are combined into a single output, achieving a better generalization. The purpose of this work is to develop a new method for Kohonen maps ensemble, where the maps fusion is weighted by cluster validation indices and is suitable for equal size maps fusion and for different size maps fusion. The proposed algorithm has been tested in multiple data sets from the UCI Machine Learning Repository and Fundamental Clustering Problems Suite. Computer simulations show the proposed method is able to reach encouraging results, obtaining raising performance compared with a single Kohonen map. Keywords: Machine committee, Kohonen Self Organizing Maps, Cluster validity index.

12

13 Sumário Sumário Lista de Figuras Lista de Tabelas List of Algorithms i iii v vi 1 Introdução Motivação Objetivos Organização do documento Fundamentação Teórica Mapas Auto-organizáveis de Kohonen Treinamento do Mapa Índices de Validação O índice de Dunn O índice de Calinski e Harabasz O índice Davies-Bouldin O índice PBM O índice CDbw Modificação de índices de validação Comitês de máquinas Construção de um comitê de máquinas Algumas aplicações de comitês de máquinas Resumo Materiais e Métodos Fusão de mapas de tamanhos iguais Seleção e dos candidatos i

14 3.1.2 Equações de fusão Experimento fatorial Abordagens Algoritmo proposto Fusão de mapas de tamanhos diferentes Estrutura com 7 mapas Estrutura com 49 mapas Validação Cruzada Medida de performance Teste estatístico Resumo Resultados Conjunto de dados Mapas de tamanhos iguais Mapas de tamanhos diferentes Estrutura com 7 mapas Estrutura com 49 mapas Estrutura de fusão com validação cruzada Resumo Conclusão Considerações finais Mapas de tamanhos iguais Mapas de tamanhos diferentes Trabalhos futuros Publicações Referências bibliográficas 67 Apêndice A Conjuntos de dados utilizados 73 Apêndice B Trabalhos publicados 75

15 Lista de Figuras 2.1 Diagrama esquemático bidimensional da Rede de Kohonen. (Mattos, 2011) Atualização do BMU e vizinhos. (Vesanto, 2002) Diagrama do cálculo do índice de Dunn Diagrama do cálculo do índice Davies-Bouldin Estrutura de um comitê de méquinas. (Coelho, 2006) Visão geral do processo Seleção e combinação dos mapas Estrutura do experimento fatorial Abordagens para a fusão dos mapas Estrutura com 7 mapas Estrutura com 49 mapas Acurácia média para mapas de tamanhos iguais Acurácia para mapas iguais - BC Wisconsin Acurácia para mapas iguais - Chainlink Acurácia para mapas iguais - Column Acurácia para mapas iguais - Engytime Acurácia para mapas iguais - Heart Acurácia para mapas iguais - Ionosphere Acurácia para mapas iguais - Iris Acurácia para mapas iguais - Lsun Acurácia para mapas iguais - Pimaindians Acurácia para mapas iguais - Seeds Acurácia para mapas iguais - Tetra Acurácia para mapas iguais - Wine Acurácia para mapas iguais - Two diamonds Acurácia para mapas iguais - Wingnut Acurácia para 7 mapas diferentes - BC Wisconsin Acurácia para 7 mapas diferentes - Chainlink iii

16 4.18 Acurácia para 7 mapas diferentes - Column Acurácia para 7 mapas diferentes - Engytime Acurácia para 7 mapas diferentes - Heart Acurácia para 7 mapas diferentes - Hepatitis Acurácia para 7 mapas diferentes - Ionosphere Acurácia para 7 mapas diferentes - Iris Acurácia para 7 mapas diferentes - Lsun Acurácia para 7 mapas diferentes - PimaIndians Acurácia para 7 mapas diferentes - Seeds Acurácia para 7 mapas diferentes - Tetra Acurácia para 7 mapas diferentes - Two Diamonds Acurácia para 7 mapas diferentes - Wine Acurácia para 7 mapas diferentes - Wingnut Acurácia para 49 mapas diferentes - BC Wisconsin Acurácia para 49 mapas diferentes - Chainlink Acurácia para 49 mapas diferentes - Column Acurácia para 49 mapas diferentes - Engytime Acurácia para 49 mapas diferentes - Heart Acurácia para 49 mapas diferentes - Hepatitis Acurácia para 49 mapas diferentes - Ionosphere Acurácia para 49 mapas diferentes - Iris Acurácia para 49 mapas diferentes - Lsun Acurácia para 49 mapas diferentes - PimaIndians Acurácia para 49 mapas diferentes - Seeds Acurácia para 49 mapas diferentes - Tetra Acurácia para 49 mapas diferentes - Two Diamonds Acurácia para 49 mapas diferentes - Wine Acurácia para 49 mapas diferentes - Wingnut Acurácia com validação cruzada estratificada A.1 Conjunto de dados UCI A.2 Conjunto de dados do FCPS. (Ultsch, 2005)

17 Lista de Tabelas 4.1 Conjuntos de dados utilizados Resultados da fusão de mapas de tamanhos iguais Resultados da fusão de 7 mapas com a Equação Resultados da fusão de 7 mapas com a Equação Resultados da fusão de 7 mapas com a Equação Resultados das fusões para os 49 mapas com a Equação Resultados das fusões para os 49 mapas com a Equação Resultados das fusões para os 49 mapas com a Equação Resultados para a validação cruzada estratificada v

18

19 Lista de Algoritmos 1 FUSÃO DE MAPAS DE TAMANHOS IGUAIS FUSÃO DE 7 MAPAS DE TAMANHOS DIFERENTES FUSÃO DE 49 MAPAS DE TAMANHOS DIFERENTES FUSÃO ATRAVÉS DA VALIDAÇÃO CRUZADA TESTE DE WILCOXON vii

20

21 Capítulo 1 Introdução Em várias áreas do conhecimento, cresce a cada dia a quantidade de informações coletadas e armazenadas e devido ao volume e dimensionalidade, estes dados acabam ficando sem uma análise e interpretação adequadas. A diversidade de características dos conjuntos de dados pode fazer com que a utilização de um ou outro algoritmo de agrupamento, ou o mesmo algoritmo, mas com diferentes atributos, resulte em diferentes resultados. O aumento do desempenho de sistemas de classificação, agrupamentos e análise de dados é uma busca constante em Mineração de Dados e áreas correlatas. Algoritmos novos ou variações de algoritmos já existentes são publicados na literatura constantemente. Algoritmos não supervisionados são empregados quando não há um conhecimento prévio sobre a estrutura e a distribuição do conjunto de dados. Dentre os algoritmos não supervisionados, destaca-se a Rede de Kohonen, com aprendizado competitivo e não supervisionado, capaz de projetar um mapa bidimensional de um conjunto multidimensional de dados, preservando as relações topológicas destes dados. Na busca por soluções eficientes na exploração do conhecimento embutido nas massas de dados, foram criados métodos de comitês de máquinas (ensemble), onde combinamse os resultados de várias redes neurais artificiais em um só. Esta abordagem tem sido muito explorada, pois trata-se de uma técnica simples e que pode aumentar o poder de generalização das redes neurais. A combinação de múltiplos componentes é vantajosa, uma vez que componentes diferentes podem implicitamente representar aspectos distintos e, ao mesmo tempo, relevantes para a solução de um dado problema. Esta técnica é capaz de fornecer um melhor resultado do que cada componente individualmente. Duas características são fundamentais para o bom desempenho de um comitê de máquinas: diversidade de resultados e erros descorrelacionados dos componentes. É preciso que os componentes do comitê apresentem resultados diferentes, pois de nada adianta

22 2 CAPÍTULO 1. INTRODUÇÃO combinar soluções iguais. Também é necessário que os erros apresentados pelos componentes sejam independentes uns dos outros, pois não há ganho para o comitê se os todos os componentes, por exemplo, errarem a mesma classificação de um padrão de entrada. Para os mapas auto-organizáveis de Kohonen (Kohonen Self-Organizing Maps - SOM) (Kohonen, 1982), erros descorrelacionados podem ser obtidos, por exemplo, utilizando diferentes conjuntos de treinamento ou variando parâmetros de treinamento para cada rede neural. A combinação das saídas dos mapas SOM em uma única saída pode ser feita a partir da fusão dos neurônios dos mapas que compõem o comitê de máquinas. 1.1 Motivação Tanto a abordagem de comitês de máquinas quanto o uso de Mapas Auto Organizáveis de Kohonen têm sido muito explorados nos últimos anos. Comitês de máquinas são relativamente simples em seu conceito e complexos em sua implementação, mas são capazes de aumentar a capacidade de generalização de um modelo. As Redes de Kohonen trabalham com dados multidimensionais, projetando-os em um mapa bidimensional, preservando a topologia dos dados. A motivação deste trabalho é desenvolver um novo método para combinação de mapas de Kohonen que empregue a ponderação por índices de validação de agrupamentos, com o objetivo de aumentar a acurácia desse método em relação a uma única rede de Kohonen. 1.2 Objetivos A proposta deste trabalho é apresentar um método para fusão de Mapas de Kohonen por meio de comitês de máquinas e com ponderação por índices de validação de agrupamentos. Os objetivos específicos desta pesquisa são: 1. Propor uma metodologia para implementar o comitê de máquinas de mapas de Kohonen de tamanhos iguais e de tamanhos diferentes; 2. Verificar a influência da quantidade de hits e BMUs no resultado final do comitê de máquinas; 3. Verificar a eficácia em empregar índices de validação de agrupamentos na seleção de componentes do comitê de máquinas.

23 1.3. ORGANIZAÇÃO DO DOCUMENTO Organização do documento Este documento está organizado da seguinte forma: no Capítulo 1 é apresentada uma breve descrição da proposta desta tese, bem como os aspectos que motivaram o seu desenvolvimento e os objetivos. No Capítulo 2 os conceitos principais que serão utilizados neste trabalho são descritos e são apresentados alguns trabalhos relacionados. No Capítulo 3 é apresentada a proposta para a fusão de mapas de Kohonen de tamanhos iguais e de tamanhos diferentes. No Capítulo 4 são apresentados os resultados obtidos na aplicação dos algoritmos propostos para a fusão de mapas de Kohonen. Por fim, no Capítulo 5 são apresentadas as conclusões e os trabalhos futuros.

24 4 CAPÍTULO 1. INTRODUÇÃO

25 Capítulo 2 Fundamentação Teórica Neste capítulo são apresentados os conceitos utilizados no desenvolvimento deste trabalho. Uma visão geral sobre mapas auto organizáveis de Kohonen é vista na Seção 2.1. Já na Seção 2.2, são apresentadas descrições simplificadas de alguns índices de validação e na Seção 2.3 temos a modificação dos índices de validação modificados para uso com o SOM. Ao final, na Seção 2.4 temos uma introdução aos métodos de comitês de máquinas. 2.1 Mapas Auto-organizáveis de Kohonen Os mapas auto-organizáveis de Kohonen (Self-Organizing Maps - SOM) (Kohonen, 1982) tornaram-se um modelo de rede neural muito popular. Constituem uma rede neural artificial, com aprendizado competitivo e não supervisionado, que realiza uma projeção não-linear de um espaço de entrada R p, sendo p >> 2, em uma grade de neurônios dispostos em um arranjo, normalmente, bidimensional, tendo apenas duas camadas: uma de entrada de dados e outra de saída de dados. As entradas da rede x são vetores no espaço p-dimensional. Os neurônios i da camada de saída são conectados a todas as entradas da rede, representados por um vetor de pesos sinápticos no espaço p-dimensional, w i = [wi 1,wi 2,...,wi p ] T. Estes neurônios são conectados aos neurônios adjacentes por uma relação de vizinhança que descreve a estrutura topológica do mapa. A Figura 2.1 mostra um diagrama representativo da arquitetura da Rede de Kohonen. Na fase de treinamento, em uma sequência aleatória, os padrões de entrada x são comparados com os neurônios da camada de saída. O neurônio vencedor, chamado de BMU (Best Match Unit), representa o vetor peso com a menor distância, usualmente a Euclidiana, em relação ao padrão de entrada x. Chamando o neurônio vencedor de c, ele pode ser formalmente definido de acordo com a Equação 2.1.

26 6 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA Figura 2.1: Diagrama esquemático bidimensional da Rede de Kohonen. (Mattos, 2011) x w c = argmin i x w i (2.1) Os pesos do neurônio vencedor são ajustados de acordo com a Equação 2.2, juntamente com os pesos dos neurônios vizinhos. w i (t + 1) = w i (t) + α(t)h ci (t)[x(t) w i (t)] (2.2) Onde t indica a iteração (ou época), x(t) é o padrão de entrada, h ci (t) é a função de vizinhança, centrada no neurônio vencedor i x, enquanto que α(t) é a taxa de aprendizado, com valores entre 0 e 1. Na Figura 2.2 é ilustrado o processo de atualização de pesos do neurônio vencedor e sua vizinhança. As linhas sólidas correspondem à situação antes da atualização dos pesos e as linhas tracejadas mostram a mudança devido à aproximação do BMU e seus vizinhos do padrão de entrada x. Os círculos escuros e claros representam, respectivamente, os neurônios antes e depois do ajuste dos pesos Treinamento do Mapa São duas as maneiras de treinamento de um Mapa de Kohonen: treinamento sequencial e treinamento em lote. O processo de treinamento sequencial dos mapas autoorganizáveis consiste em três etapas, segundo Haykin (2001): 1. Competição: a cada padrão de entrada que é apresentado para a rede, os neurônios da camada de saída competem entre si, (esta competição é baseada em uma medida de similaridade), Geralmente a menor distância euclidiana entre os pesos sinápticos dos neurônios e o padrão de entrada determinará o único vencedor (BMU).

27 2.1. MAPAS AUTO-ORGANIZÁVEIS DE KOHONEN 7 Figura 2.2: Atualização do BMU e vizinhos. (Vesanto, 2002) 2. Cooperação: escolhido o neurônio vencedor, este torna-se o centro de uma vizinhança topológica de neurônios excitados. 3. Adaptação: os neurônios da vizinhança topológica determinada na fase de cooperação têm seus pesos sinápticos ajustados, de maneira que os neurônios mais próximos ao BMU sofrem ajustes maiores do que os neurônios mais distantes. A função gaussiana é utilizada para descrever a influência do BMU sobre seus vizinhos (atualização dos pesos sinápticos), pois apresenta um significado biológico coerente: o neurônio ativado tende a excitar com maior intensidade os neurônios na sua vizinhança imediata e decai suavemente com a distância lateral (Haykin, 2001). A Equação 2.3 mostra como é calculada a excitação do neurônio j, em relação ao neurônio vencedor i, sendo d ji a distância entre eles (normalmente, a distância euclidiana é utilizada). h i j = exp ( d2 i j 2σ 2 ) (2.3) Com o fim do processo de aprendizagem, os vetores de código do SOM constituem uma aproximação não-linear dos padrões de entrada. O processo busca manter a preservação topológica dos padrões, isto é, padrões próximos no conjunto de entrada da rede permanecerão relacionados a neurônios próximos na grade de saída. O processo de treinamento em lote difere do treinamento sequencial por apresentar todos os vetores de entrada para a rede. de uma única vez. Assim, não é necessário o parâmetro taxa de aprendizagem, α(t), da Equação 2.2 e também não se faz necessária aleatoriedade para a apresentação dos vetores de entrada. Na próxima seção, serão apresentados os índices de validação de agrupamentos utilizados como ponderação na fusão dos mapas de Kohonen.

28 8 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 2.2 Índices de Validação Devido às diferentes geometrias e dimensionalidades dos conjuntos de dados, não existe um algoritmo único que possa agrupar, de forma não supervisionada, um conjunto de dados qualquer. Os índices de validação são necessários para avaliar e validar os resultados destes algoritmos de agrupamentos, auxiliando na tomada de decisão quanto à definição da quantidade correta, ou natural, de grupos formados a partir de um conjunto de dados. Existe, na literatura, uma variedade muito grande de índices de validação de agrupamentos, cada um com características próprias para aplicação em conjuntos de dados com determinadas características. Alguns aplicam-se à conjuntos de dados que apresentam boa separação entre os agrupamentos, outros se destinam a dados de alta dimensionalidade, outros não apresentam boa resposta na presença de ruídos. Para cada tipo de aplicação, um método para validar os agrupamentos foi desenvolvido. Na validação de agrupamentos podem ser abordados três critérios: o externo, o interno e o relativo (Theodoridis e Koutroumbas, 2009). No critério externo a estrutura dos grupos é avaliada em termos de uma estrutura independente, imposta ao conjunto de dados a priori. No critério interno a estrutura dos grupos é avaliada em base em informações estatísticas dos dados de cada grupo (por exemplo, a matriz de proximidade). No critério relativo a estrutura dos grupos é avaliada por comparação com outras estruturas de agrupamentos, resultantes da aplicação do mesmo algoritmo (mas com parâmetros com diferentes valores), ou comparada com outros algoritmos de agrupamentos. Como exemplos de índices de validação que utilizam critérios relativos, temos: o índice de Dunn, o índice de Calinski e Harabasz o índice Davies-Bouldin, o índice PBM e o índice CDbw. Nas seções 2.2.1, e estes índices serão explicados O índice de Dunn O índice de Dunn (Dunn, 1973) é calculado pela razão entre a mínima distância entre dois pontos pertencentes a dois diferentes grupos (δ(c i,c j )) e a máxima distância entre dois pontos pertencentes ao mesmo grupo ( (C k )), como ilustra a Figura 2.3. É adequado para conjunto de dados que possuam grupos compactos e bem separados. É sensível a ruídos, pois eles interferem no cálculo do diâmetro do grupo, e seu custo computacional é elevado.

29 2.2. ÍNDICES DE VALIDAÇÃO 9 Figura 2.3: Diagrama do cálculo do índice de Dunn. Fonte: Elaborada pelo autor. O seu cálculo é mostrado na Equação 2.4 { D = min 1 i c min 1 j c,i j { }} δ(c i,c j ) max 1 k c (C k ) (2.4) No artigo de Bezdec (Bezdek e Pal, 1998) são propostas generalizações do Índice de Dunn, para melhor adequação às diferentes geometrias dos agrupamentos. Estas generalizações são obtidas pelas variações nos cálculos dos diâmetros dos grupos e das distâncias entre grupos. Valores elevados para o Índice de Dunn indicam a existência de grupos compactos (diâmetro pequeno) e bem separados (distâncias grandes entre os grupos) O índice de Calinski e Harabasz O índice de Calinski e Harabasz (Calinski e Harabasz, 1974) avalia a quantidade de grupos presentes em um conjunto de dados por meio de medidas de dispersão entre e intra grupos. O seu cálculo é mostrado na Equação 2.5. Onde: CH (k) = B(k)/(k 1) W(k)(n k) (2.5) k indica a quantidade de grupos no conjunto de dados. n é a quantidade de pontos no conjunto. B(k) é a dispersão entre os grupos. W(k) é a soma das dispersões intra-grupos. O número de ótimo de grupos é o valor de k que maximiza a função 2.5.

30 10 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA O índice Davies-Bouldin O índice Davies-Bouldin (Davies e Bouldin, 1979) é uma função da razão entre a soma da dispersão interna dos grupos e a separação entre eles. Na Figura 2.4, as linhas vermelhas no interior do grupo C i, ilustram a dispersão interna, enquanto a linha verde que une os centroides dos grupos C i e C j representa a separação entre eles. Figura 2.4: Diagrama do cálculo do índice Davies-Bouldin. Fonte: Elaborada pelo autor. A dispersão interna de um grupo é dada pela Equação 2.6: Onde: c indica a quantidade de elementos do grupo. c i representa o centroide do grupo. x representa cada ponto do grupo.. é a distância Euclidiana. S(C i ) = 1 c c C i x c i (2.6) A separação entre os grupos é dada pela distância Euclidiana entre os centroides dos grupos, como mostra a Equação 2.7: δ ( C i,c j ) = c i,c j (2.7) Por fim, a Equação 2.8 calcula o índice Davies-Bouldin DB = 1 k k max S(C i) + S ( ) C j δ ( ) (2.8) C i,c j i=1 i j Onde k é o número de agrupamentos, S representa a dispersão interna do agrupamento (distância intra-grupos), com relação ao centroide e δ corresponde à distância inter-

31 2.2. ÍNDICES DE VALIDAÇÃO 11 grupos, baseada nos centroides. Valores pequenos para o Índice Davies-Bouldin indicam grupos compactos cujos centros estão bem separados entre si. O valor de k que minimiza o índice representará o valor mais provável do número real de grupos no conjunto de dados. Este índice não depende do número de grupos no conjunto de dados e nem do algoritmo utilizado para formar estes grupos O índice PBM O índice PBM (Pakhira et al., 2004), (acrônimo formado pelas iniciais dos autores Pakhira, Bandyopadhyay and Maulik), baseia-se em compactação de grupos e separação entre grupos. A compactação é medida pela soma das distâncias entre cada ponto do grupo e seu centroide. A separação entre os grupos é medida pela máxima distância entre dois centroides. dados. Onde: PBM (k) = k indica a quantidade de grupos. ( ) 1 2 k E1 D k (2.9) E k E 1 é a soma das distâncias entre cada ponto de um grupo e o centroide desse grupo. E k é a soma das distâncias entre cada ponto e o centroide do conjunto de dados. D k é a máxima distância entre dois quaisquer centroides de grupos. Maximizando este índice, obtem-se o número ótimo de grupos em um conjunto de O índice CDbw Em Halkidi e Vazirgiannis (2008), foi proposto um índice de validação de agrupamentos chamado CDbw (Composing Density Between and With clusters). Este índice CDbw ajusta-se bem a geometrias não esféricas dos dados por considerar multi-representantes por grupos e não apenas o centroide, podendo ser aplicado a conjuntos de dados com alta dimensionalidade. Para um conjunto de dados particionados em c agrupamentos, definese um conjunto de pontos representativos V i = {vi 1,vi 2,...,vi r } para o agrupamento i, sendo que r representa o número de pontos de representação do agrupamento i. Os representantes de cada grupo são assim determinados: na 1 a iteração escolhe-se o ponto mais distante do centro. Nas seguintes iterações escolhe-se o ponto mais distante

32 12 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA do ponto escolhido previamente. Isso resulta em um conjunto de pontos r que representa a periferia, ou contorno, do grupo. O critério de parada é definido empiricamente, ou seja, escolhe-se previamente o número de representantes de cada grupo (Halkidi e Vazirgiannis, 2008). Este índice de validação baseia-se na densidade intra-grupos e na separação entre os grupos, conforme a Equação CDbw(c) = DensIntra(c) Sep(c) (2.10) Sendo DensIntra(c) a densidade intra-grupos e Sep(c) a separação entre os grupos. A densidade intra-grupos é definida como o número de pontos que pertencem à vizinhança dos pontos que representam os grupos r. A densidade intra-grupos é alta para grupos bem separados. Onde: r i DensIntra(c) = 1 c 1 c r i density(v i j ),c > 1 (2.11) i=1 i=1 c é o número de grupos. r i é número de pontos representativos. v i j é j-ésima a representação do agrupamento i. Sendo a densidade: Onde: density(v i j ) = n i f (x l,v i j ) (2.12) l=1 x l pertence ao i-ésimo agrupamento. r i é número de pontos representativos. v i j é j-ésima a representação do agrupamento i. O termo do somatório é definido da seguinte maneira: 1, se xl v i j stdev, f (x l,v i j ) i j = 0, se caso contrario. Aqui, stdev corresponde à média dos desvios padrões de cada um dos c agrupamentos (desvio padrão dos pontos do grupo até o centroide deste grupo).

33 2.2. ÍNDICES DE VALIDAÇÃO 13 A densidade inter-grupos é definida como a densidade nas áreas entre os grupos. Essa densidade deve ser baixa quando temos grupos compactos e bem separados. c c close repi close rep DensInter(c) = j ( stdev(i) + stdev( j) ) density(u i j),c > 1 (2.13) i=1 j=1 Onde: close rep i close rep j representam o par de pontos de representação mais próximos entre o agrupamento i e j. u i j é o ponto médio entre este par de pontos. Sendo esta densidade: density(u i j ) = n i +n j f (x k,u i j ) (2.14) k=1 Sendo x k o vetor de entrada que pertence ao grupo i ou j. Já o termo do somatório é assim definido: 1, se x v 1 2 ( stdev(i) + stdev( j) ), f (x k,u i j ) = 0, caso contrario. A separação entre agrupamentos leva em conta a distância inter-grupos e a densidade inter-grupos. c c close rep Sep(c) = i close rep j,c > 1 (2.15) 1 + Inter den(c) i=1 j=1 j i Assim, o índice de validação de agrupamentos CDbw é dado por pela equação O número ideal de grupos é indicado quando o valor do CDbw atinge o valor máximo, independente do algoritmo utilizado para o agrupamento dos dados. Este índice adapta-se bem a grupos com as mais variadas formas geométricas, uma vez que usa vários vetores representativos para cada grupo e não somente o centroide. Na seção seguinte será mostrada a modificação no cálculo dos índices de validação de agrupamentos, adaptados para uso com os mapas de Kohonen, proposto em (Gonçalves, 2009).

34 14 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 2.3 Modificação de índices de validação Devido à alta complexidade computacional exigida no cálculo dos índices de validação de agrupamentos, Gonçalves (2009) propôs em sua Tese de doutoramento uma modificação nos cálculos dos índices de validação, para aplicá-los em conjuntos de dados de imagens de sensoriamento remoto que, por sua natureza, são bastante volumosos. O autor modificou alguns índices de validação através da quantização vetorial produzida pelo SOM. Assim, não foram utilizados os padrões originais e sim os vetores de pesos sinápticos dos neurônios do SOM nos cálculos destes índices. Desta forma, diminui-se a quantidade de dados e, consequentemente, a complexidade computacional para o cálculo do índice de validação. Para contornar possíveis diferenças de valores entre o cálculo do índice considerando todos os dados e considerando apenas os protótipos, o autor também propôs que fossem utilizados os níveis de atividade conjuntamente com os vetores de pesos sinápticos. O nível de atividade significa a quantidade de padrões de entrada que foram associados a cada protótipo pelo processo de mapeamento do SOM. A modificação proposta no cálculo dos índices pode ser compreendida através de um exemplo no cálculo de distância entre dois agrupamentos C I e C j : 1 δ i, j = C i Cj d (x,y) (2.16) x C i y C j Na Equação 2.16, d (x,y) é uma medida de distância e C i e Cj referem-se à quantidade de elementos dos grupos C i e C j, respectivamente. Quando a quantidade de elementos do grupo é elevada, a complexidade computacional é elevada. A Equação 2.17 mostra a modificação do cálculo através da metodologia proposta em (Gonçalves, 2009) : δ SOM 1 i, j = C i C j h(w i ) h ( ) ( ) w j d wi,w j w i W i w j W j (2.17) Onde W i e W j são os conjuntos de protótipos do SOM que representam os grupos C i e C j, respectivamente, d (x,y) é a mesma medida de distância da Equação 2.16, h(w i ) é o nível de atividade do protótipo w i pertencente a W i e h ( w j ) é o nível de atividade do protótipo w j pertencente a W j. Assim o cálculo da distância apresenta um custo computacional mais baixo, uma vez

35 2.4. COMITÊS DE MÁQUINAS 15 que as quantidades envolvidas, W i e W j, são menores do que C i e C j. Com a inclusão dos níveis de atividades h(.) dos protótipos no cálculo, obtém-se uma minimização dos erros causados pela quantização vetorial que o Mapa de Kohonen produz, já que introduz no cálculo a aproximação da densidade de pontos no espaço de entrada ora representados pelos protótipos. Na sequência, os comitês de máquinas são introduzidos, abordando aspectos relativos à geração, seleção e combinação dos componentes destes comitês. 2.4 Comitês de máquinas Um comitê de máquinas, ou ensemble, pode ser visto como uma coleção de redes neurais artificiais individuais, que possuem diversidade entre si e que levam à uma maior capacidade de generalização do que quando trabalhando em separado (Dietterich, 2000). Cada componente atua independentemente dos outros e gera uma solução que é combinada pelo comitê, produzindo uma única saída. A Figura 2.5 mostra a estrutura geral de um comitê de máquinas. Figura 2.5: Estrutura de um comitê de méquinas. (Coelho, 2006) O estudo de comitês de máquinas iniciou com o trabalho de Hansen e Salamon (1990), combinando redes neurais artificiais, treinadas separadamente, conseguindo melhorar a capacidade de generalização do sistema. Um comitê de máquinas baseia-se no princípio de "dividir-para-conquistar", buscando superar o desempenho de uma máquina de aprendizado operando de modo isolado (Haykin, 2001). Os comitês de máquinas podem ser divididos em dinâmicos e estáticos. No caso dinâmico, o comitê recebe o nome de mistura de especialistas, onde a divisão de tarefas e a síntese dos especialistas são realizadas simultaneamente e de forma automática pelo algoritmo de aprendizagem (Haykin, 2001). Nos comitês estáticos cada componente apresenta uma solução para o problema e estas soluções são agregadas fornecendo um só resultado. Desta forma, há um aumento

36 16 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA da capacidade de generalização, diminuição da variância do modelo e maior tolerância à ruídos quando comparados ao resultado de um único componente (Haykin, 2001). Um dos requisitos básicos para o bom resultado do comitê de máquinas é que os componentes generalizem de forma diferente, pois de nada adianta combinar modelos que adotam os mesmos procedimentos e hipóteses para a solução de um problema, sendo fundamental que os erros apresentados por cada um dos componentes sejam descorrelacionados (Perrone e Cooper, 1993). Isso pode ser obtido, por exemplo, utilizando diferentes conjuntos para o treinamento ou variando os parâmetros de treinamento de cada rede neural que compõe o comitê de máquinas, entre outras maneiras Construção de um comitê de máquinas As etapas da construção de um comitê de máquinas são: geração de componentes, seleção dos componentes e combinação dos componentes individuais (Villanueva, 2006). Inicialmente, geram-se os componentes candidatos a participarem do comitê. Na sequência, selecionam-se os componentes candidatos que irão contribuir realmente para a melhoria do desempenho do comitê. Por fim, combinam-se as saídas de cada componente em uma única saída. Na etapa da geração de componentes é preciso considerar um baixo erro de treinamento e uma descorrelação entre os erros de cada componente. Também é necessário que haja diversidade entre os componentes, para garantir que generalizem de modo diferente. Para garantir que as redes neurais tenham diversidade entre si, pode-se adotar como estratégias: Inicialização aleatória dos pesos para cada componente. Variação na arquitetura da rede neural. Variação do algoritmo de treinamento. Re-amostragem dos dados. No caso da re-amostragem dos dados duas técnicas são bastante utilizadas: Bagging e Boosting. Bagging (Breiman, 1996) é uma técnica de geração de conjuntos distintos de treinamento a partir de um único conjunto, através de re-amostragem com reposição. Por exemplo, considere um único conjunto de treinamento com N amostras, para treinar m componentes. O objetivo é construir m conjuntos de treinamento com N amostras cada um. Com uma distribuição de probabilidade uniforme para seleção das amostras a

37 2.4. COMITÊS DE MÁQUINAS 17 partir do conjunto fonte, teremos algumas amostras selecionadas mais de uma vez, pois há reposição. Há a possibilidade de os componentes não generalizarem de forma satisfatória, mas a combinação destes modelos pode resultar em uma generalização melhor do que cada componente individual. Boosting (Schapire, 1990) é um método em que os conjuntos de treinamento são gerados através de uma amostragem não uniforme, diferentemente do método Bagging. A probabilidade de uma dada amostra ser escolhida depende da contribuição desta para o erro dos componentes já treinados. Tomando como exemplo um problema de classificação, uma amostra que não seja corretamente classificada pelos componentes já treinados terá uma maior probabilidade de ser selecionada do que uma amostra que seja corretamente classificada. Assim, esta amostra terá uma chance maior de compor o conjunto de treinamento do próximo componente a ser treinado. Um dos problemas desta técnica é a necessidade de treinamento sequencial dos componentes do comitê, uma vez que as probabilidades devem ser redefinidas de acordo com o comportamento dos componentes já treinados. A versão mais popular do algoritmo de Boosting é chamada AdaBoost, na qual cada componente é treinado sequencialmente e a distribuição dos dados de treinamento é feita levando-se em consideração os erros do componente treinado no passo imediatamente anterior. Considerando a etapa da seleção de componentes, pode ser que nem todos os componentes contribuam para o desempenho global do comitê. Assim, é preciso identificar e descartar estes componentes, uma vez que a inclusão de todos eles no comitê pode degradar sua performance (Zhou et al., 2002). Uma maneira de selecionar os componentes é através de alguma medida de erro, por exemplo. Dois são os métodos mais citados na literatura para seleção de componentes: o construtivo e o da poda. O método construtivo pode ser descrito desta maneira: os M candidatos a comporem o comitê são ordenados com base em algum critério, por exemplo medida de erro, que irá mensurar o desempenho individual de cada componente. O que tiver melhor desempenho individual é inserido no comitê. O próximo candidato (o de segundo melhor desempenho individual), é adicionado ao comitê. Se o desempenho do comitê de máquinas melhorar, o comitê passa a ter dois componentes. Caso contrário, o elemento recém-inserido é removido. Este processo se repete então para todos os demais candidatos restantes na lista ordenada gerada inicialmente.

38 18 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA O método da poda funciona de modo oposto ao método construtivo. Os M candidatos também são ordenados a partir de seu desempenho individual em relação à medida de erro, por exemplo. Todos os candidatos são inseridos no comitê. O candidato com pior performance individual é removido e o comitê de máquinas tem seu desempenho avaliado novamente. Se ocorrer uma melhora de seu desempenho em relação à configuração anterior, o comitê passa a contar então com M-1 componentes. Senão, o candidato retirado volta ao comitê e o processo se repete para os demais candidatos, exceto o de melhor desempenho individual, que nunca é removido do comitê de máquinas. A seleção de componentes é realizada basicamente para maximizar a generalização do modelo, descartando componentes que não contribuam para o desempenho do comitê. De acordo com Greene et al. (2004), a diversidade entre os componentes é necessária, porém não é suficiente para gerar uma solução melhor do que um único componente se não for utilizado um método de integração adequado para combinar estes componentes. De acordo com Villanueva (2006), a combinação dos componentes para obter o resultado final do comitê de máquinas pode ser baseada em técnicas de votação simples, para tarefas de classificação de dados ou média simples ou ponderada, para tarefas de regressão de dados. No caso de agrupamentos de dados, onde não há conhecimento à priori, uma opção é empregar a matriz de co-associação. Esta combinação dos componentes é feita através da chamada função consenso. Ela deve ser escolhida cuidadosamente, pois influencia diretamente o resultado do comitê de máquinas Algumas aplicações de comitês de máquinas É possível encontrar variações nas implementações dos métodos de comitês de máquinas e suas aplicações em diversas áreas do conhecimento: Wang (2006) empregou comitês para a classificação e predição de dados de expressão de genes, para a correta e confiável classificação de tumores, o que é essencial para o sucesso do tratamento. Outra aplicação médica é encontrada em Krawczyk et al. (2012), que utilizou comitês para reconhecimento não invasivo de fibrose hepática. Greene et al. (2004) também estudou as técnicas de comitês aplicadas em diagnósticos médicos. Em Villanueva (2006) e Chitra e Uma (2010) foram empregados comitês de máquinas para predição de séries temporais, obtendo um ganho significativo quando comparado com o uso de um único modelo preditor. Curiac e Volosencu (2012) utilizou comitês de classificadores para detecção de anomalias em redes de sensores sem fio. Comitês de máquinas também foram aplicados em previsão de tempo, com resultados satisfatórios (Maqsood et al., 2004).

39 2.4. COMITÊS DE MÁQUINAS 19 A abordagem de comitês demonstrou ser uma forma eficaz para aumentar a precisão e robustez de reconstrução de sinal de sensores em uma planta de geração de energia nuclear (Baraldi et al., 2010). Em seu trabalho, Coelho (2006), propôs uma metodologia de criação de comitês de máquinas para problemas de classificação, onde os componentes são redes neurais artificiais do tipo perceptron multicamadas. Para que fossem gerados bons candidatos a comporem o comitê, atendendo a critérios de desempenho e de diversidade, foi aplicada uma meta-heurística populacional imuno-inspirada, caracterizada por definir automaticamente o número de indivíduos na população a cada iteração, promover diversidade e preservar ótimos locais ao longo da busca. Os resultados obtidos indicam a validade da metodologia de criação de comitês de máquinas. Em Naldi (2011), o autor investigou as técnicas de combinação de agrupamentos, através de algoritmos evolutivos e de índices de validação aplicadas na seleção de agrupamentos para combinação e na mineração distribuída de dados, conseguindo partições de boa qualidade e com bom desempenho computacional. No trabalho de Ferreira (2012), o método para construção de comitês é baseado em rotação, que utiliza a técnica de extração de características da análise de componentes principais (PCA) como artifício para rotacionar os eixos formados pelos subgrupos de atributos para construção de comitês diversos e acurados. Até aqui foram relatados alguns trabalhos utilizando a técnica de comitês de máquinas, para demonstrar a diversidade e exito na aplicação desta técnica em diversas áreas do conhecimento. Neste trabalho são empregados comitês de Mapas de Kohonen. A seguir são descritos apenas alguns trabalhos para ilustrar o emprego do método em variadas áreas. Em Jiang e Zhou (2004), um método de segmentação de imagens, baseado em um conjunto de redes SOM é proposto. Os pixels são agrupados de acordo com a cor e características espaciais em cada rede SOM. Após combinam-se os resultados de agrupamento para dar a segmentação final. Os resultados experimentais mostram que o método proposto apresenta um desempenho melhor do que métodos baseados em segmentação de imagem. Georgakis et al. (2005) comparou um comitê de máquinas de SOM com o SOM tradicional em organização e recuperação de documentos. Como critério para combinação dos mapas, foi utilizada a distância euclidiana entre os neurônios, para determinar quais neurônios estavam alinhados, possibilitando a fusão. Os mapas foram avaliados dois a dois, até que todos os mapas foram combinados em um só. O comitê de SOM obteve um melhor resultado do que a aplicação tradicional. Para esta metodologia, todos os mapas

40 20 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA devem ter o mesmo tamanho. No trabalho de Saavedra et al. (2007), a fusão dos neurônios foi denominada Fusion- SOM e baseia-se nos polígonos de Voronoi - regiões do espaço de entrada às quais os neurônios do mapa de Kohonen podem ser associados, ou seja, para os neurônios serem combinados, precisam representar a mesma região do espaço de entrada. O trabalho de Low et al. (2005) apresenta uma abordagem de comitê chamada Mapa de Kohonen Extendido e Cooperativo (Cooperative EKM - Extendend Kohonen Maps) com mapeamento indireto aplicado a movimentação de robôs. No trabalho de DeLooze (2006) um conjunto de redes SOM são utilizadas para identificar e caracterizar adequadamente ataques a computadores. Tsai (2014) desenvolveu modelos de previsão de dificuldades no mercado financeiro, baseados em comitê de SOM, obtendo resultados melhores do que modelos individuais. Em Fustes et al. (2013) foi utilizado comitê de SOM, para análise não supervisionada de outliers, que permite a descoberta de conhecimento em bancos de dados astronômicos, como a missão Gaia, da agência espacial européia que vai observar com uma precisão posições, distâncias, movimentos do espaço, e muitas propriedades físicas de mais de um bilhão de objetos em nossa galáxia e além. 2.5 Resumo Neste capítulo foram apresentados os principais conceitos que serão utilizados neste trabalho: mapas auto organizáveis de Kohonen, índices de validação e comitês de máquinas. Os mapas auto organizáveis de Kohonen são uma rede neural artificial que têm demonstrado bons resultados em tarefas de classificação, agrupamento e visualização de conjuntos de dados multidimensionais. Os índices de validação de agrupamentos tem por finalidade quantificar o quanto um algoritmo pode ser eficiente em agrupar dados. Os comitês de máquinas constituem uma maneira para lidar com grandes conjuntos de dados, produzindo bons resultados em relação ao custo computacional envolvido. No próximo capítulo serão detalhadas as abordagens desenvolvidas neste trabalho para a fusão de mapas de Kohonen.

41 Capítulo 3 Materiais e Métodos Para projetar um comitê de máquinas é preciso definir três parâmetros importantes: como obter a diversidade entre os componentes do comitê; como selecionar os componentes que farão parte do comitê e como agregar, ou combinar, o resultado de cada componente. Neste capítulo serão apresentadas as metodologias para a investigação da solução do tema proposto por este trabalho através de duas Seções: fusão de mapas de tamanhos iguais e fusão de mapas de tamanhos diferentes. 3.1 Fusão de mapas de tamanhos iguais O método consiste na fusão de mapas de Kohonen formados a partir de subconjuntos do conjunto de dados, criados por re-amostragem (Bagging). Como descrito na Seção 2.4.1, Bagging e Boosting são duas técnicas bastante empregadas para a re-amostragem de dados. Neste trabalho foi escolhida a técnica de Bagging por ser de implementação e execução mais simples. Uma visão geral do processo é mostrado na Figura 3.1. A fusão ocorre entre dois neurônios que têm a mínima distância Euclidiana entre eles, indicando que eles representam a mesma região do espaço de entrada. Figura 3.1: Visão geral do processo. Fonte: Elaborada pelo autor.

42 22 CAPÍTULO 3. MATERIAIS E MÉTODOS O método de re-amostragem foi utilizado para gerar subconjuntos a partir do conjunto de treinamento, com probabilidade uniforme e reposição. O SOM foi aplicado a cada subconjunto gerado e todos os mapas foram segmentadas pelo algoritmo k-means. Os mapas segmentados são os candidatos a comporem o comitê de máquinas Seleção e dos candidatos De acordo com Zhou et al. (2002), não se deve utilizar todos os componentes, pois isso pode afetar o desempenho do comitê. Assim, a maneira de selecionar estes candidatos será através de índices de validação de agrupamentos modificados, propostos por Gonçalves (2009), a saber: CDbw, Calinski-Harabasz, Dunn generalizado, PBM e Davies-Bouldin. Estes índices serão a função consenso do comitê. O método de seleção é baseado na ordenação dos componentes pelos índices de validação e pode ser descrito da seguinte maneira: os candidatos a compor o comitê são ordenados com base nos valores dos índices de validação, do melhor para o pior. Assim, temos uma medida de desempenho individual de cada componente. O processo de seleção dos mapas de Kohonen desenvolvido neste trabalho é ilustrado pela Figura 3.2. Neste exemplo os mapas foram ordenados pelo índice de validação de agrupamentos CDbw e os valores foram normalizados no intervalo [0,1]. O mapa com o melhor índice CDbw (0,5369), letra (a) na Figura, é o primeiro componente do comitê. O mapa com o segundo melhor índice CDbw (0,4386), letra (b) na figura, é primeiro candidato a compor o comitê. A combinação entre eles resultou em um mapa que, ao ser segmentado, alcançou um valor para o índice CDbw igual a 0,7207, que é maior do que o mapa melhor ordenado anteriormente. Desta forma, o segundo mapa é mantido no comitê, letra (c) na figura. Caso o valor do índice do mapa combinado fosse menor do que o índice do primeiro mapa, o segundo mapa seria retirado do comitê e o terceiro mapa seria testado. Este processo de seleção prossegue até que todos os mapas disponíveis sejam testados. As equações de fusão, as abordagens e a estrutura geral do experimento fatorial são descritas a seguir Equações de fusão Foram testadas três diferentes equações para a fusão dos neurônios dos mapas de Kohonen. A primeira, Equação 3.1, é uma média aritmética simples entre os vetores de

43 3.1. FUSÃO DE MAPAS DE TAMANHOS IGUAIS 23 Figura 3.2: Seleção e combinação dos mapas. Fonte: Elaborada pelo autor. peso dos neurônios as serem fundidos. w c = w i + w j 2 (3.1) onde w c representa cada neurônio do mapa combinado; w i e w j são os neurônios dos mapas a serem combinados. A segunda equação é uma média ponderada entre os pesos dos neurônios e seus respectivos hits. O propósito de incluir os hits é evitar a influência de neurônios sem hits no resultado da fusão, como mostra a Equação 3.2 onde h i e h j são os hits de cada neurônio de cada mapa. w c = w i h i + w j h j h i + h j (3.2) Através da Equação 3.3, a terceira equação testada, analisamos se o índice de validação de agrupamento influencia na melhora da acurácia do algoritmo. w c = w i h i V I i + w j h j V I j h i V I i + h j V I j (3.3) onde V I i e V I j são os valores dos índices de validação para cada um dos mapas a serem combinados.

44 24 CAPÍTULO 3. MATERIAIS E MÉTODOS Experimento fatorial Foi definido um experimento fatorial para avaliar o algoritmo proposto para a fusão dos mapas. Foram avaliados três tamanhos de mapas: o 10x10, o 15x15 e o 20x20. Através da re-amostragem, foram gerados dez conjuntos de dados, com a seguinte quantidade de subconjuntos: 10, 20, 30, 40, 50, 60, 70, 80, 90 e 100 subconjuntos. Cada um dos subconjuntos foi criado com três diferentes porcentagens de Bagging, sendo 50%, 70% e 90% dos dados de treinamento. Isto significa que para cada tamanho de mapa, há dez diferentes subconjuntos e três valores de porcentagem da re-amostragem, resultando em 900 mapas. Assim, no primeiro experimento o mapa tem o tamanho de 10x10, com 10 subconjuntos gerados pela reamostragem com uma porcentagem de 50% dos dados de treinamento, como mostra a Figura 3.3. Figura 3.3: Estrutura do experimento fatorial. Fonte: Elaborada pelo autor Abordagens A ordenação dos mapas foi baseada nos cinco índices de validação de agupamentos descritos na Seção 2.2 e ainda o MSQE (Mean Square Quantization Error). O MSQE indica o quão bem os neurônios do mapa se aproximam dos dados do conjunto de entrada (Corchado e Baruque, 2012), sendo utilizado para avaliar a qualidade da adaptação do mapa aos dados (Saavedra et al., 2007).

45 3.1. FUSÃO DE MAPAS DE TAMANHOS IGUAIS 25 Nesta pesquisa, foram testadas quatro abordagens para ordenar as performances dos mapas e para estabelecer os critérios de combinação ou fusão: Abordagem 1: Mapas ordenados pelo índice de validação e combinados pelo critério da melhora do MSQE. Abordagem 2: Mapas ordenados pelo MSQE e combinados pelo critério da melhora do índice de validação. Abordagem 3: Mapas ordenados pelos índice de validação e combinados pelo critério da melhora do índice de validação. Abordagem 4: Mapas ordenados pelo MSQE e combinados pelo critério da melhora do MSQE. Na primeira abordagem, os mapas são ordenados por cada um dos cinco índices de validação, mas a fusão é controlada pela melhora do MSQE do mapa fundido. Na segunda abordagem, os mapas foram ordenados pelo MSQE e o processo de fusão foi controlado pela melhora do índice de validação de agrupamento do mapa fundido. Na terceira abordagem, os mapas foram ordenados por cada índice de validação de agrupamento e a fusão foi controlada pela melhora destes índices. É importante destacar que, por exemplo, se os mapas foram ordenados de acordo com o índice Davies-Bouldin, a fusão será controlada pela melhoria deste índice. Finalmente, na quarta abordagem os mapas foram ordenados pelo MSQE e fundidos pelo critério de melhoria do MSQE. A Figura 3.4 mostra o que foi descrito. Figura 3.4: Abordagens para a fusão dos mapas. Fonte: Elaborada pelo autor.

46 26 CAPÍTULO 3. MATERIAIS E MÉTODOS Algoritmo proposto O algoritmo proposto foi aplicado em cada uma das combinações mostrada na Figura 3.3, de acordo com as abordagens ilustradas na Figura 3.4. O algoritmo é descrito a seguir: Algoritmo 1: FUSÃO DE MAPAS DE TAMANHOS IGUAIS Entrada: Conjunto de dados, tamanho do mapa, número de subconjuntos, porcentagem da re-amostragem Saída: Mapas fundido 1 início 2 Gerar, através da re-amostragem (Bagging), os subconjuntos a partir do conjunto de treinamento 3 Aplicar o SOM nos subconjuntos gerados, resultando em N i (i = 1,2,...) mapas com a mesma dimensão 4 Segmentar os mapas com o algoritmo k-means 5 Calcular os índices de validação de agrupamentos e o MSQE para cada N i (i = 1,2,...) mapa e ordená-los de acordo com os valores obtidos, do melhor para o pior 6 Fundir o melhor mapa (mapa base - o que possuir o melhor valor para o índice de validação de agrupamento ou MSQE) com o próximo melhor mapa, de acordo com a ordenação, seguindo as Equações 3.1, 3.2 e Calcular o índice de validação de agrupamento ou o MSQE do mapa fundido 8 Se 9 Há melhoria no índice de validação de agrupamento ou MSQE 10 Então 11 O mapa resultante da fusão torna-se o mapa base, retorne ao PASSO 6 até que todos os mapas sejam fundidos; 12 Senão 13 A fusão é descartada, retorne ao PASSO 6 até que todos os mapas sejam 14 fim fundidos; Os principais parâmetros do SOM foram: grade hexagonal, vizinhança gaussiana, raio inicial de treinamento igual a 4, raio final de treinamento igual a 1 e 2000 épocas de treinamento. Devido à inicialização aleatória, o algoritmo k-means foi repetido dez vezes e foi selecionado o resultado que apresentou a menor soma dos quadrados dos erros.

47 3.2. FUSÃO DE MAPAS DE TAMANHOS DIFERENTES Fusão de mapas de tamanhos diferentes Na literatura, até o momento, não foram encontrados métodos que possam resolver o problema de fusão de mapas de Kohonen com diferentes tamanhos. A complexidade está no fato de que, em mapas de tamanhos diferentes, teremos diferenças topológicas. Mapas considerados pequenos têm neurônios vencedores (BMU) com grande número de hits, isto é, vários padrões de entrada associados a eles. Por outro lado, em mapas considerados grandes a vantagem é a distância elevada entre os BMUs, o que possibilita melhor visualização do mapa. Neste trabalho foi desenvolvido um novo método para combinar as saídas de mapas de Kohonen com tamanhos diferentes em uma única saída. O objetivo é melhorar a acurácia do comitê em relação à acurácia de um único mapa de Kohonen. Para a fusão de mapas com tamanhos diferente novamente foram investigadas as possibilidades de ordenação e fusão de acordo com o que foi estabelecido para a fusão de mapas de tamanhos iguais (Subseção 3.1.3). O comitê é composto por mapas de diferentes tamanhos, derivados de um Mapa Base, isto é, o mapa que será melhorado através de fusões consecutivas com outros mapas de tamanhos diferentes. Para determinação do tamanho do Mapa Base foi utilizada a Equação 3.4, definida em Kohonen (1982), onde as dimensões x e y (linhas e colunas, respectivamente) do mapa devem ser proporcionais aos dois maiores autovalores da matriz de covariância dos dados: λ 1 e λ 2 : x y λ 1 (3.4) λ 2 O Mapa Base é o primeiro componente do comitê e os mapas restantes são candidatos a comporem o comitê. Estes mapas são organizados de acordo com a performance obtida (MSQE e os cinco índices de validação de agrupamentos). Os mapas são combinados aos pares acordo com as três Equações de fusão: 3.1, 3.2 e 3.3. Assim como na abordagem para fusão de mapas de mesmo tamanho, apresentada na Seção 3.1, é preciso identificar e retirar do comitê os componentes que não contribuem para o aumento do desempenho do comitê (Zhou et al., 2002). Deste modo, o processo de seleção dos componentes é o mesmo que foi descrito para mapas de tamanhos iguais (ver Figura 3.2), iniciando com o Mapa Base sendo combinado com o mapa que apresenta a melhor performance entre os outros mapas. Se a performance resultante da combinação dos mapas for melhorada em relação à performance do mapa base, a combinação destes mapas é mantida. Caso contrário, a combinação destes dois

48 28 CAPÍTULO 3. MATERIAIS E MÉTODOS mapas é descartada e o próximo mapa, com a segunda melhor performance, é combinado com o mapa base. Cada vez que a combinação dos mapas resulta em um aumento da performance, o próximo mapa (em ordem descendente de performance) é combinado a eles e assim sucessivamente até que todos os mapas sejam testados na combinação. Para a segmentação dos mapas foi utilizado o algoritmo k-means. O mesmo é repetido dez vezes e o resultado escolhido é o que apresentar a menor soma dos quadrados dos erros, devido à natureza de inicialização aleatória do k-means. Para esta abordagem foram testadas duas maneiras distintas para a realização da fusão dos mapas. A primeira maneira refere-se a uma estrutura de 7 mapas. Na segunda maneira a estrutura é composta por 49 mapas. As diferenças e características de cada uma destas variações é explicada nas subseções seguintes. A influência do número de hits e BMUs no processo de fusão foi avaliada através da variação das porcentagens destas medidas desde 10% até 100%, com passo de 10%. Cada neurônio do Mapa Base tem um número de hits (quantas vezes o neurônio foi o vencedor - BMU). Quando este neurônio é fundido a outro neurônio (de outro mapa), será levado em consideração o valor mínimo da porcentagem de hits que este neurônio deve ter em relação ao neurônio do Mapa Base. A limitação da porcentagem de BMUs é o coração do método de fusão de mapas com tamanhos diferentes. No processo de fusão, os mapas são avaliados aos pares. Os neurônios destes mapas também são avaliados aos pares, através da distância Euclidiana. Quando o Mapa Base tem dimensões menores do que o mapa a ser fundido com ele, haverá mais neurônios neste segundo mapa do que no Mapa Base. Por exemplo, considerando que um Mapa Base tenha tamanho de 10x10 e o mapa a ser com ele fundido tenha tamanho de 12x12, haverá 100 neurônios no primeiro mapa e 144 no segundo mapa. Com a limitação da porcentagem de BMUs, a fusão ficará limitada a 100% dos neurônios do Mapa Base. Significa que, para o exemplo dado, apenas 100 dos 144 neurônios serão avaliados no processo de fusão. Estes 100 neurônios são os que possuem as menores distâncias Euclidianas com os 100 neurônios do Mapa Base. Os outros 44 neurônios não entram no processo. Assim é possível fundir mapas maiores à mapas menores Estrutura com 7 mapas Considerando o Mapa Base com dimensões N x M, os outros seis mapas têm as seguintes dimensões: (N+3) x M, N x (M+3), (N-3) x M, (N-3) x (M+3), (N-3) x (M-3), N x (M-3), como mostrado na Fig Desta maneira teremos mapas com tamanhos variados, promovendo uma certa diversidade entre estes mapas.

49 3.2. FUSÃO DE MAPAS DE TAMANHOS DIFERENTES 29 Figura 3.5: Estrutura com 7 mapas. Fonte: Elaborada pelo autor. O algoritmo para a fusão dos sete mapas é descrito a seguir. Algoritmo 2: FUSÃO DE 7 MAPAS DE TAMANHOS DIFERENTES Entrada: Conjunto de dados Saída: Fusão dos mapas de Kohonen 1 início 2 Dividir o conjunto de dados em treinamento (80%) e teste (20%) 3 Calcular o tamanho do Mapa Base, através da Equação Criar, a partir do Mapa Base, os outros seis mapas 5 Aplicar o algoritmo SOM ao conjunto de treinamento, criando as estruturas dos sete mapas 6 Segmentar todos os mapas, através do algoritmo k-means 7 Calcular as performances de cada mapa - os cinco índices de validação de agrupamentos e o MSQE 8 Ordenar os mapas de acordo com os critérios de performance, do melhor para o pior 9 Fundir cada mapa ao Mapa Base de acordo com a equação de fusão 10 Calcular a performance do mapa fundido 11 Se 12 Há melhoria na performance 13 Então 14 O mapa resultante da fusão torna-se o mapa base, retorne ao PASSO 9 até que todos os mapas sejam fundidos; 15 Senão 16 A fusão é descartada, retorne ao PASSO 9 até que todos os mapas sejam 17 fim fundidos;

50 30 CAPÍTULO 3. MATERIAIS E MÉTODOS Estrutura com 49 mapas O comitê é composto por 49 mapas, sendo um Mapa Base e 48 mapas com tamanhos derivados a partir do tamanho do Mapa Base. As dimensões do Mapa Base são definidas pela Equação 3.4, tal como na estrutura com 7 mapas. Neste trabalho definiu-se que uma permutação de 3 valores acima e abaixo dos valores das dimensões do Mapa Base seria utilizada para gerar os outros 48 mapas. Por exemplo, se o Mapa Base tiver dimensões iguais a 10x10, os mapas restantes teriam os valores de linha e coluna variando entre 7 e 13, isto é, 7x7, 7x8,..., 13x12, 13x13, totalizando 49 mapas com diferentes tamanhos, como mostra a Figura 3.6. Figura 3.6: Estrutura com 49 mapas. Fonte: Elaborada pelo autor.

51 3.2. FUSÃO DE MAPAS DE TAMANHOS DIFERENTES 31 O algoritmo para a fusão dos 49 mapas é descrito a seguir. Algoritmo 3: FUSÃO DE 49 MAPAS DE TAMANHOS DIFERENTES Entrada: Conjunto de dados Saída: Fusão dos mapas de Kohonen 1 início 2 Dividir o conjunto de dados em treinamento (80%) e teste (20%) 3 Calcular o tamanho do Mapa Base, através da Equação Criar, a partir do Mapa Base, os outros quarenta e oito mapas 5 Aplicar o algoritmo SOM ao conjunto de treinamento, criando as estruturas dos mapas 6 Segmentar todos os mapas, através do algoritmo k-means 7 Calcular as performances de cada mapa - os cinco índices de validação de agrupamentos e o MSQE 8 Ordenar os mapas de acordo com os critérios de performance, do melhor para o pior 9 Fundir cada mapa ao Mapa Base de acordo com a equação de fusão 10 Calcular a performance do mapa fundido 11 Se 12 Há melhoria na performance 13 Então 14 O mapa resultante da fusão torna-se o mapa base, retorne ao PASSO 9 até que todos os mapas sejam fundidos; 15 Senão 16 A fusão é descartada, retorne ao PASSO 9 até que todos os mapas sejam 17 fim fundidos;

52 32 CAPÍTULO 3. MATERIAIS E MÉTODOS Validação Cruzada A validação cruzada (ou Cross Validation) é um procedimento para estimar a performance de um algoritmo. Basicamente o conjunto de dados é dividido aleatoriamente em K subconjuntos (ou folds), mutuamente exclusivos e com tamanhos iguais ou aproximadamente iguais. Uma maneira usual é utilizar K igual a 10, chamando a validação cruzada de "10-fold cross-validation". Neste caso, um dos subconjuntos é utilizado para o teste do algoritmo e os outros K 1 subconjuntos formam o conjunto de treinamento. Este procedimento é repetido K vezes, sendo que em cada repetição, um subconjunto diferente é usado para o teste os subconjuntos restantes são utilizados no treinamento. Ao final, a performance do algoritmo (acurácia, por exemplo) é obtida pela média das performances obtidas a cada repetição deste procedimento (Kuncheva, 2004). Uma variação do deste procedimento é a Validação Cruzada Estratificada. Aqui, ao dividir o conjunto de dados em K subconjuntos, a distribuição de classes em cada subconjunto é aproximadamente a mesma do conjunto original de dados (Diamantidis et al., 2000). Neste trabalho, foi utilizada a validação cruzada estratificada, para mapas de tamanhos diferentes, na estrutura de 49 mapas, para estimar a acurácia do algoritmo proposto para a fusão. O algoritmo desenvolvido para a validação cruzada é descrito a seguir.

53 3.2. FUSÃO DE MAPAS DE TAMANHOS DIFERENTES 33 Algoritmo 4: FUSÃO ATRAVÉS DA VALIDAÇÃO CRUZADA Entrada: Conjunto de dados Saída: Estimativa de acurácia da fusão de mapas de tamanhos diferentes 1 início 2 Dividir o conjunto de dados em K=10 partes (folds), mantendo a proporção de classes do conjunto de dados original 3 Retirar uma das partes (um dos subconjuntos) para o teste 4 Calcular o tamanho do Mapa Base, através da Equação 3.4, utilizando K-1 subconjuntos 5 Criar, a partir do Mapa Base, os outros 48 mapas 6 Aplicar o algoritmo SOM ao conjunto de treinamento, criando as estruturas dos mapas 7 Segmentar todos os mapas, através do algoritmo k-means 8 Calcular as performances de cada mapa - os cinco índices de validação de agrupamentos e o MSQE 9 Ordenar os mapas de acordo com os critérios de performance, do melhor para o pior 10 Fundir cada mapa ao Mapa Base de acordo com a equação de fusão 11 Calcular a performance do mapa fundido, com o conjunto de testes (o subconjunto que não foi utilizado no treinamento) 12 Se 13 Há melhoria na performance 14 Então 15 O mapa resultante da fusão torna-se o mapa base, retorne ao PASSO 10 até que todos os mapas sejam fundidos; 16 Senão 17 A fusão é descartada, retorne ao PASSO 10 até que todos os mapas sejam fundidos 18 Retornar ao PASSO 2 até que o algoritmo seja repetido 10 vezes 19 Calcular a performance do algoritmo, como sendo a média das 10 performances obtidas. 20 fim

54 34 CAPÍTULO 3. MATERIAIS E MÉTODOS 3.3 Medida de performance Quando há um conhecimento prévio da estrutura original dos dados, pode-se adotar critérios externos para avaliação da performance do algoritmo de agrupamento. Assim, os algoritmos são mensurados de forma a avaliar o quão bem o agrupamento coincide com as classes verdadeiras presentes em um dado conjunto de dados. A pureza (purity, em inglês) é um critério externo de qualidade para o agrupamento e é utilizado quando os rótulos dos dados são conhecidos (Manning et al., 2008). Esta medida de performance de agrupamento é calculada pela somatória das amostras corretamente posicionadas em um dado grupo, dividida pelo número total de amostras. A maneira mais fácil de calcular a pureza de um agrupamento é encontrar a classe majoritária em cada grupo e contar o número de objetos marcados dessa classe em cada grupo. Depois divide-se o valor desta somatória pela quantidade total de amostras do conjunto de dados (Forestier et al., 2010). Os valores da pureza do agrupamento ficam entre 0 e 1, sendo que valores próximos a 1 indicam bons agrupamentos e valores baixos indicam agrupamentos ruins. Esta definição da pureza e sua utilização como medida de performance de algoritmos de agrupamento pode ser encontrada nos trabalhos de Amigó et al. (2009), Rendón et al. (2011), Sripada e Rao (2011) e Deepa e Revathy (2012), entre outros. Já nos trabalhos de Greene et al. (2004) e de Kuncheva et al. (2006), o critério para avaliação de um comitê de máquinas de agrupamento foi uma medida de desempenho denominada acurácia e definida como a proporção de atribuição correta de rótulos às amostras em função do número total de amostras. Ou seja, a definição de pureza e acurácia é a mesma. Neste trabalho, será utilizado o termo acurácia para designar a performance dos algoritmos propostos. 3.4 Teste estatístico No trabalho de Demšar (2006) são apresentados alguns testes para comparação estatística das performances de algoritmos considerando múltiplos conjuntos de dados. Com base nos estudos apontados no trabalho, o autor sugere que seja utilizado o teste não paramétrico de Wilcoxon (Wilcoxon Signed Rank Test) para comparação de dois algoritmos, pois é um teste simples, seguro e robusto. Testes não paramétricos são mais seguros do que testes paramétricos, uma vez que não assumem distribuição normal ou homogeneidade da variância dos dados. Assim, eles

55 3.5. RESUMO 35 podem ser aplicados para verificação da acurácia do modelo, taxas de erro ou qualquer outra medida para avaliação de algoritmos. Os resultados empíricos sugerem que eles também são mais fortes do que os outros testes estudados. Por essa razão, entre os testes apresentados pelo autor, foi escolhido o teste não paramétrico de Wilcoxon (Signed Rank Test), com nível de significância de 0,05. Através deste teste, serão avaliados os resultados obtidos pelo comitê de mapas de Kohonen, isto é, se o algoritmo proposto leva a resultados estatisticamente diferentes das acurácias obtidas por um único mapa. A hipótese nula, H 0, é que não há diferença entre as acurácias obtidas pelo mapa único e pelo comitê de mapas. O algoritmo para o teste de Wilcoxon é descrito a seguir. Algoritmo 5: TESTE DE WILCOXON Entrada: Resultados obtidos por dois diferentes algoritmos Saída: Aceitação ou rejeição da Hipótese nula 1 início 2 Calcular a diferença d i = X i Y i, onde x i e y i são os pares dos resultados para cada conjunto de dados 3 Ordenar os resultados de d i, sem considerar os sinais, ou seja, atribuir o posto 1 para o menor valor de d i, posto 2 para o próximo e assim por diante. 4 Atribuir o sinal para cada posto de acordo com o sinal de d i 5 Calcular a soma dos postos positivos (R + ) e a soma dos postos negativos (R ) 6 Escolha T = min(r +,R ) 7 Verificar o valor crítico para aceitação ou rejeição de H 0 8 A Hipótese nula é rejeitada se o valor de T for menor do que o valor 9 fim encontrado nas tabelas de valores críticos para o teste de Wilcoxon 3.5 Resumo Neste capítulo foram apresentadas propostas de abordagens para a fusão de mapas de Kohonen com tamanhos iguais e com tamanhos diferentes. Foram definidas as equações para a fusão dos mapas, os critérios para ordenação e fusão, bem como os algoritmos correspondentes a cada uma das abordagens, além da definição da acurácia utilizada neste trabalho. Também foi apresentado o teste estatístico de Wilcoxon, que será utilizado na comparação dos resultados obtidos. No próximo capítulo são apresentados os resultados obtidos na fusão de mapas de Kohonen através dos algoritmos aqui propostos.

56 36 CAPÍTULO 3. MATERIAIS E MÉTODOS

57 Capítulo 4 Resultados Este capítulo apresenta os resultados obtidos na aplicação dos algoritmos propostos para a fusão de mapas de Kohonen. Está dividido em duas seções: fusão de mapas de mesmo tamanho e fusão de mapas de tamanhos diferentes. Esta última contém três subseções: estrutura com 7 mapas, estrutura com 49 mapas e validação cruzada estratificada. 4.1 Conjunto de dados O algoritmo proposto foi testado em variados conjuntos de dados do Repositório UCI (Lichman, 2013) e do FCPS (Fundamental Clustering Problems Suite) (Ultsch, 2005). As características de cada conjunto de dados são mostradas na Tabela 4.1 e no Apêndice A estão as ilustrações destes conjuntos de dados. Tabela 4.1: Conjuntos de dados utilizados. N o Dataset Repositório Instâncias Atributos Classes 01 BC Wisconsin UCI Column UCI Heart UCI Hepatitis UCI Ionosphere UCI Iris UCI Pima Indians UCI Seeds UCI Wine UCI Chainlink FCPS Engytime FCPS Lsun FCPS Tetra FCPS Two Diamonds FCPS Wingnut FCPS

58 38 CAPÍTULO 4. RESULTADOS 4.2 Mapas de tamanhos iguais O objetivo da simulação foi verificar em qual configuração de tamanho do mapa, de número de subconjuntos e de percentagem de bagging, o melhor valor da acurácia poderia ser obtida. Cada experimento foi executado 10 vezes e foram obtidos valores médios para um intervalo de confiança de 95%. Os resultados foram comparados com um único mapa SOM, para verificar a melhora na acurácia. A Tabela 4.2 apresenta os resultados experimentais para cada conjunto de dados. A coluna Equação mostra qual foi a equação de fusão que alcançou o melhor resultado, para cada conjunto de dados. A Equação (3.1) é a mais simples das três equações testadas, sendo apenas uma média simples entre os vetores dos dois neurônios de peso. A Equação (3.2) é uma média ponderada entre pesos dos neurônios e seus hits. A Equação (3.3) é uma média ponderada entre pesos dos neurônios, hits e índice de validação de agrupamento. Esta última equação, a mais complexa dentre as três utilizadas, apresentou o melhor resultado para apenas 2 dos 15 conjuntos de dados avaliados. A coluna Abordagem refere-se à forma como os mapas foram ordenados e fundidos, tal como especificado na Subseção Para a maioria dos conjuntos de dados, as abordagens 2 (Mapas ordenados pelo MSQE e combinados pelo critério da melhora do índice de validação) e 3 (Mapas ordenados pelo índice de validação e combinados pelo critério da melhora do índice de validação) foram as que levaram aos melhores resultados para o método proposto. A coluna CVI, de Cluster Validity Index - índice de validação de agrupamentos - mostra qual índice foi usado para conseguir a melhor acurácia de fusão em relação ao único mapa, para cada conjunto de dados (DB é o índice Davies-Bouldin e CH é o índice Calinski e Harabasz). O índice Davies-Bouldin é o que aparece mais vezes e o índice PBM não conduziu a bons resultados para os conjuntos de dados utilizados. A coluna Tamanho do mapa refere-se ao tamanho do mapa que alcançou o melhor valor da acurácia. O mapa 15x15 não obteve resultados para os conjuntos de dados avaliados. Isto não significa que mapas com estas dimensões, ou seja, com 225 neurônios na camada de saída, não são apropriados. Apenas significa que, para estes conjuntos de dados, mapas com 100 ou com 400 neurônios se adaptaram melhor aos dados de entrada e conduziram à melhores acurácias. A coluna Bagging mostra que, para grande parte dos conjuntos de dados, utilizando 90% das amostras foi possível obter os melhores resultados. Uma elevada percentagem do valor Bagging significa que há uma maior variedade de dados para o treinamento,

59 4.2. MAPAS DE TAMANHOS IGUAIS 39 levando a um melhor resultado de acurácia da fusão. Estes resultados mostram que é possível obter boas precisões sem utilizar todos os elementos do conjunto de treinamento. A coluna Número de Subconjuntos mostra o número de subconjuntos que foram avaliados para encontrar a melhor acurácia. Para a maioria dos conjuntos de dados utilizados nesta experimento, as melhores acurácias foram obtidas com grandes quantidades de subconjuntos. Isto era esperado, uma vez que quanto mais subconjuntos disponíveis, mais fusões podem ocorrer e, consequentemente, o resultado da acurácia melhora. A acurácia de um único mapa de Kohonen é comparado com os resultados da acurácia do comitê de mapas nas duas últimas colunas da tabela. Como pode ser visto na Tabela 4.2, para todos os conjuntos de dados utilizados neste experimento, houve melhora na acurácia. Para os conjuntos Tetra e Two Diamonds as acurácias tanto para o mapa único quanto para o comitê foram de 100%. Isso deve-se ao fato de que as classes destes conjuntos de dados são bem distintas, como pode ser observado na Figura A.2.

60 Tabela 4.2: Resultados da fusão de mapas de tamanhos iguais Dataset Equação Abordagem CVI Tamanho Bagging Número de Acurácia Acurácia do mapa (%) subconjuntos único mapa do comitê BC Wisconsin (3.1) 2 DB 20x Chainlink (3.3) 2 DB 10x Column (3.2) 3 DB 10x Engytime (3.1) 1 CH 20x Heart (3.1) 2 Dunn 20x Ionosphere (3.2) 3 DB 10x Iris (3.1) 2 Dunn 10x Lsun (3.3) 3 DB 10x PimaIndians (3.2) 3 CH 20x Seeds (3.2) 3 DB 20x Tetra (3.1) 2 Dunn 20x Two Diamonds (3.1) 3 Dunn 10x Wine (3.1) 2 CDbw 10x Wingnut (3.2) 3 CDbw 10x CAPÍTULO 4. RESULTADOS

61 4.2. MAPAS DE TAMANHOS IGUAIS 41 A Figura 4.1 mostra a acurácia média (pois foram realizados dez experimentos) obtida para cada conjunto de dados. As linhas pretas verticais mostram o valor da acurácia para um único mapa de Kohonen. Como pode ser observado, em todas as situações as acurácias médias alcançadas pelo método proposto foram maiores do que as acurácias para um único mapa, exceto para os conjuntos Tetra e TwoDiamonds, que tiveram o mesmo valor, de 100% na performance. Assim, evidencia-se que através da fusão de mapas de Kohonen, é possível aumentar o valor da acurácia do algoritmo de agrupamento. Figura 4.1: Acurácia média para mapas de tamanhos iguais. Fonte: Elaborada pelo autor. No trabalho de Demšar (2006) são apresentadas maneiras de comparar a performance de algoritmos de agrupamento ou de classificação, considerando múltiplos conjuntos de dados. Entre os testes apresentados, foi escolhido o teste não paramétrico de Wilcoxon (Signed Rank Test), com nível de significância de 0,05. Através deste teste, pode-se avaliar se o resultado obtido pelo comitê de mapas de Kohonen é estatisticamente diferente das acurácias obtidas por um único mapa. A hipótese nula, H 0, é que não há diferença entre as acurácias obtidas pelo mapa único e pelo comitê de mapas. O teste de Wilcoxon rejeitou a hipótese nula, com valor p igual a 0, , ou seja: o método proposto obteve resultados de acurácia que são diferentes, e melhores, do que a

62 42 CAPÍTULO 4. RESULTADOS acurácia de um único mapa. As Figuras 4.2 a 4.15 mostram a acurácia (eixo Z) obtida para cada conjunto de dados de acordo com a variação da porcentagem de Bagging (eixo X) e quantidade de subconjuntos (eixo Y). Em cada figura, as linhas pretas representam o intervalo de confiança do experimento, que foi repetido dez vezes, e as regiões quentes (em vermelho) representam a maior acurácia média obtida e regiões frias (em azul) mostram acurácias médias mais baixas. Por exemplo, a Figura 4.2 mostra que a maior acurácia média obtida para o conjunto de dados BC Wisconsin foi conseguida com uma maior quantidade de subconjuntos e com uma percentagem elevada de Bagging. A análise pode ser estendida para as demais figuras. Figura 4.2: Acurácia para mapas iguais - BC Wisconsin. Fonte: Elaborada pelo autor Figura 4.3: Acurácia para mapas iguais - Chainlink. Fonte: Elaborada pelo autor Figura 4.4: Acurácia para mapas iguais - Column. Fonte: Elaborada pelo autor Figura 4.5: Acurácia para mapas iguais - Engytime. Fonte: Elaborada pelo autor

63 4.2. MAPAS DE TAMANHOS IGUAIS 43 Figura 4.6: Acurácia para mapas iguais - Heart. Fonte: Elaborada pelo autor Figura 4.7: Acurácia para mapas iguais - Ionosphere. Fonte: Elaborada pelo autor Figura 4.8: Acurácia para mapas iguais - Iris. Fonte: Elaborada pelo autor Figura 4.9: Acurácia para mapas iguais - Lsun. Fonte: Elaborada pelo autor Figura 4.10: Acurácia para mapas iguais - Pimaindians. Fonte: Elaborada pelo autor Figura 4.11: Acurácia para mapas iguais - Seeds. Fonte: Elaborada pelo autor

64 44 CAPÍTULO 4. RESULTADOS Figura 4.12: Acurácia para mapas iguais - Tetra. Fonte: Elaborada pelo autor Figura 4.13: Acurácia para mapas iguais - Wine. Fonte: Elaborada pelo autor Figura 4.14: Acurácia para mapas iguais - Two diamonds. Fonte: Elaborada pelo autor Figura 4.15: Acurácia para mapas iguais - Wingnut. Fonte: Elaborada pelo autor 4.3 Mapas de tamanhos diferentes Como descrito na Seção 3.2, foram testadas diferentes abordagens para a fusão de mapas de tamanhos diferentes e os resultados são apresentados nas Subseções seguintes sob a forma de tabelas e gráficos. Além disso, são mostrados os resultados para o teste estatístico de Wilcoxon para cada situação Estrutura com 7 mapas As Tabelas 4.3, 4.4 e 4.5 mostram os resultados das simulações para os mapas de tamanhos diferentes na estrutura com sete mapas, para cada uma das três equações de fusão. A coluna Abordagem refere-se à maneira como os mapas foram ordenados e combinados, como especificado na Seção

65 4.3. MAPAS DE TAMANHOS DIFERENTES 45 A coluna Índice mostra quais índices foram melhores para cada conjunto de dados (DB refere-se ao índice Davies-Bouldin e CH refere-se ao índice Calinski and Harabasz). A coluna Tamanho do mapa refere-se ao tamanho definido pela Equação 3.4. O resultado da acurácia do comitê de mapas é comparado com a acurácia de um único mapa auto-organizável de Kohonen, nas duas últimas colunas das tabelas. O teste não paramétrico de Wilcoxon (Wilcoxon Signed Rank Test) (Demšar, 2006), com nível de significância de 0,05, foi utilizado para avaliar se o resultado obtido pelo comitê de mapas de Kohonen é estatisticamente diferente das acurácias obtidas por um único mapa. A hipótese nula, H 0, é que não há diferença entre as acurácias obtidas pelo mapa único e pelo comitê de mapas. Utilizando a Equação 3.1 (Tabela 4.3), o teste de Wilcoxon rejeitou a hipótese nula, com valor p igual a Para a fusão pela Equação 3.2 (Tabela 4.4), o teste de Wilcoxon rejeitou a hipótese nula, com valor p igual a Com a Equação 3.3 (Tabela 4.5), o teste de Wilcoxon rejeitou a hipótese nula, com valor p igual a Do exposto nos parágrafos anteriores, conclui-se que o método proposto obteve resultados de acurácia diferentes e melhores do que a acurácia de um único mapa.

66 Tabela 4.3: Resultados da fusão de 7 mapas com a Equação 3.1 Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia do Mapa (%) (%) único mapa do comitê BC Wisconsin 1 CH 22x Column 2 CH 13x Heart 2 CDbw 11x Hepatitis 1 CDbw 8x Ionophere 1 Dunn 13x Iris 1 Dunn 13x Pima Indians 1 Dunn 17x Seeds 1 CDbw 14x Wine 2 CDbw 11x Chainlink 2 CDbw 14x Engytime 2 CH 20x Lsun 2 DB 11x Tetra 1 Dunn 11x Two Diamonds 1 Dunn 14x Wingnut 1 Dunn 16x CAPÍTULO 4. RESULTADOS

67 Tabela 4.4: Resultados da fusão de 7 mapas com a Equação 3.2 Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia do Mapa (%) (%) único mapa do comitê BC Wisconsin 1 Dunn 22x Column 1 CH 13x Heart 1 CDbw 11x Hepatitis 1 CH 8x Ionosphere 1 CDbw 13x Iris 1 CDbw 13x Pima Indians 1 Dunn 17x Seeds 1 Dunn 14x Wine 2 CDbw 11x Chainlink 1 CH 14x Engytime 2 DB 20x Lsun 2 CDbw 11x Tetra 1 Dunn 11x Two Diamonds 1 Dunn 14x Wingnut 1 CDbw 16x MAPAS DE TAMANHOS DIFERENTES 47

68 Tabela 4.5: Resultados da fusão de 7 mapas com a Equação 3.3 Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia do Mapa (%) (%) único mapa do comitê BC Wisconsin 1 Dunn 22x Column 1 PBM 13x Heart 1 CDbw 11x Hepatitis 1 CDbw 8x Ionophere 1 CDbw 13x Iris 1 CDbw 13x Pima Indians 1 Dunn 17x Seeds 1 Dunn 14x Wine 1 CH 11x Chainlink 1 DB 14x Engytime 2 PBM 20x Lsun 2 CDbw 11x Tetra 1 PBM 11x Two Diamonds 1 Dunn 14x Wingnut 2 CDbw 16x CAPÍTULO 4. RESULTADOS

69 4.3. MAPAS DE TAMANHOS DIFERENTES 49 Como visto, a Equação 3.2 resultou no menor valor p para o teste de Wilcoxon, entre as três equações utilizadas, para a estrutura com 7 mapas. Assim, as figuras geradas com esta equação serão mostradas a seguir. As Figuras 4.16 a 4.30 mostram, de acordo com as variações de Hits e BMUs, as condições em que foram alcançados os melhores valores de acurácia de cada conjunto de dados. O eixo X corresponde à variação de porcentagem de Hits e o eixo Y, à variação da porcentagem de BMUs. As regiões quentes (cores vermelhas) indicam valores elevados de acurácia, enquanto que cores frias (azul) indicam valores mais baixos para a acurácia. Assim, pode-se ter uma idéia geral de como o valor da acurácia depende das porcentagens de Hits e BMUs. Figura 4.16: Acurácia para 7 mapas diferentes - BC Wisconsin. Fonte: Elaborada pelo autor Figura 4.17: Acurácia para 7 mapas diferentes - Chainlink. Fonte: Elaborada pelo autor Figura 4.18: Acurácia para 7 mapas diferentes - Column. Fonte: Elaborada pelo autor Figura 4.19: Acurácia para 7 mapas diferentes - Engytime. Fonte: Elaborada pelo autor

70 50 CAPÍTULO 4. RESULTADOS Figura 4.20: Acurácia para 7 mapas diferentes - Heart. Fonte: Elaborada pelo autor Figura 4.21: Acurácia para 7 mapas diferentes - Hepatitis. Fonte: Elaborada pelo autor Figura 4.22: Acurácia para 7 mapas diferentes - Ionosphere. Fonte: Elaborada pelo autor Figura 4.23: Acurácia para 7 mapas diferentes - Iris. Fonte: Elaborada pelo autor Figura 4.24: Acurácia para 7 mapas diferentes - Lsun. Fonte: Elaborada pelo autor Figura 4.25: Acurácia para 7 mapas diferentes - PimaIndians. Fonte: Elaborada pelo autor

71 4.3. MAPAS DE TAMANHOS DIFERENTES 51 Figura 4.26: Acurácia para 7 mapas diferentes - Seeds. Fonte: Elaborada pelo autor Figura 4.27: Acurácia para 7 mapas diferentes - Tetra. Fonte: Elaborada pelo autor Figura 4.28: Acurácia para 7 mapas diferentes - Two Diamonds. Fonte: Elaborada pelo autor Figura 4.29: Acurácia para 7 mapas diferentes - Wine. Fonte: Elaborada pelo autor Figura 4.30: Acurácia para 7 mapas diferentes - Wingnut. Fonte: Elaborada pelo autor Estrutura com 49 mapas Os resultados obtidos são apresentados em três tabelas distintas representando cada uma das Equações de Fusão utilizadas neste trabalho. As Tabelas 4.6, 4.7 e 4.8 mostram

72 52 CAPÍTULO 4. RESULTADOS os melhores valores para cada conjunto de dados, isto é, em qual abordagem e com qual índice de validação foi alcançada a melhor acurácia. A coluna Abordagem refere-se à maneira como os mapas foram ordenados e fundidos, como especificado na Seção A coluna Índice mostra quais índices foram melhores para cada conjunto de dados (DB refere-se ao índice Davies-Bouldin e CH refere-se ao índice Calinski and Harabasz). A coluna Tamanho do mapa refere-se ao tamanho definido pela Equação 4.2. As colunas Hits % e BMUs %, mostram os valores destas variáveis que fizeram com o que o resultado do comitê alcançasse o valor máximo de acurácia. Por fim, o resultado da acurácia do comitê de mapas é comparado com a acurácia de um único mapa auto-organizável de Kohonen, nas duas últimas colunas da tabela e, como pode ser observado os valores de acurácia do comitê ficaram ou acima ou no mesmo patamar que o valor de acurácia para um único mapa. O teste não paramétrico de Wilcoxon, com nível de significância de 0,05, rejeitou a hipótese H 0 (de que os valores de acurácias da fusão e do mapa único não diferem estatisticamente), nas três Equações de fusão utilizadas. A Tabela 4.6 mostra os resultados para a fusão com a Equação 3.1, a mais simples das três, sendo apenas uma média aritmética dos vetores de peso dos neurônios dos mapas fundidos. O valor p do teste de Wilcoxon, com nível de significância de 0,05, foi igual a 0, A Tabela 4.7 mostra os resultados para a fusão com a Equação 3.2, em que a média dos vetores de peso dos neurônios é ponderada pelos hits destes neurônios. O valor p do teste de Wilcoxon, com nível de significância de 0,05, foi de 0, A Tabela 4.8 mostra os resultados para a fusão com a Equação 3.3, a mais complexa das três equações. Aqui a média dos vetores de peso dos neurônios é ponderada pelos hits destes neurônios e pelo índice de validação de agrupamento. O valor p do teste de Wilcoxon, com nível de significância de 0,05, foi igual a 0, , o mesmo encontrado para os resultados da Tabela 4.7, uma vez que os resultados obtidos na fusão dos mapas são iguais.

73 Tabela 4.6: Resultados das fusões para os 49 mapas com a Equação 3.1 Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia do Mapa (%) (%) único mapa do comitê BC Wisconsin 1 Dunn 22x Column 1 Dunn 13x Heart 1 Dunn 11x Hepatitis 2 PBM 8x Ionosphere 1 CH 13x Iris 1 Dunn 13x Pima Indians 2 Dunn 14x Seeds 1 CDbw 14x Wine 1 CDbw 11x Chainlink 1 Dunn 14x Engytime 1 CDbw 20x Lsun 2 Dunn 11x Tetra 1 CDbw 11x Two Diamonds 2 Dunn 14x Wingnut 1 PBM 16x MAPAS DE TAMANHOS DIFERENTES 53

74 Tabela 4.7: Resultados das fusões para os 49 mapas com a Equação 3.2 Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia do mapa (%) (%) único mapa do comitê BC Wisconsin 1 CH 22x Column 1 CH 13x Heart 1 CDbw 11x Hepatitis 1 CDbw 8x Ionosphere 1 Dunn 13x Iris 1 CDbw 13x Pima Indians 1 CH 14x Seeds 1 CDbw 14x Wine 2 CH 11x Chainlink 2 DB 14x Engytime 1 CDbw 20x Lsun 2 Dunn 11x Tetra 1 CDbw 11x Two Diamonds 1 Dunn 14x Wingnut 2 Dunn 16x CAPÍTULO 4. RESULTADOS

75 Tabela 4.8: Resultados das fusões para os 49 mapas com a Equação 3.3 Dataset Abordagem Índice Tamanho Hits BMUs Acurácia Acurácia do mapa (%) (%) único mapa do comitê BC Wisconsin 1 CH 22x Column 1 CH 13x Heart 1 CDbw 11x Hepatitis 1 CDbw 8x Ionosphere 1 Dunn 13x Iris 1 CDbw 13x Pima Indians 1 CH 14x Seeds 1 CDbw 14x Wine 2 CH 11x Chainlink 2 DB 14x Engytime 1 CDbw 20x Lsun 2 Dunn 11x Tetra 1 CDbw 11x Two Diamonds 1 Dunn 14x Wingnut 2 Dunn 16x MAPAS DE TAMANHOS DIFERENTES 55

76 56 CAPÍTULO 4. RESULTADOS Assim como visto para a estrutura com 7 mapas, aqui serão apresentadas as figuras de acurácia para a equação que resultou no menor valor p no teste de Wilcoxon. Para a estrutura com 49 mapas, o menor valor p foi obtido com a Equação 3.1. As Figuras 4.31 a 4.45 ilustram os valores de acurácia de cada conjunto de dados. O eixo X corresponde à variação de porcentagem de Hits e o eixo Y, à variação da porcentagem de BMUs. As regiões quentes (cores vermelhas) indicam valores elevados de acurácia, enquanto que cores frias (azul) indicam valores mais baixos para a acurácia. Assim, pode-se ter uma idéia geral de como o valor da acurácia depende das porcentagens de Hits e BMUs. Figura 4.31: Acurácia para 49 mapas diferentes - BC Wisconsin. Fonte: Elaborada pelo autor Figura 4.32: Acurácia para 49 mapas diferentes - Chainlink. Fonte: Elaborada pelo autor Figura 4.33: Acurácia para 49 mapas diferentes - Column. Fonte: Elaborada pelo autor Figura 4.34: Acurácia para 49 mapas diferentes - Engytime. Fonte: Elaborada pelo autor

77 4.3. MAPAS DE TAMANHOS DIFERENTES 57 Figura 4.35: Acurácia para 49 mapas diferentes - Heart. Fonte: Elaborada pelo autor Figura 4.36: Acurácia para 49 mapas diferentes - Hepatitis. Fonte: Elaborada pelo autor Figura 4.37: Acurácia para 49 mapas diferentes - Ionosphere. Fonte: Elaborada pelo autor Figura 4.38: Acurácia para 49 mapas diferentes - Iris. Fonte: Elaborada pelo autor Figura 4.39: Acurácia para 49 mapas diferentes - Lsun. Fonte: Elaborada pelo autor Figura 4.40: Acurácia para 49 mapas diferentes - PimaIndians. Fonte: Elaborada pelo autor

78 58 CAPÍTULO 4. RESULTADOS Figura 4.41: Acurácia para 49 mapas diferentes - Seeds. Fonte: Elaborada pelo autor Figura 4.42: Acurácia para 49 mapas diferentes - Tetra. Fonte: Elaborada pelo autor Figura 4.43: Acurácia para 49 mapas diferentes - Two Diamonds. Fonte: Elaborada pelo autor Figura 4.44: Acurácia para 49 mapas diferentes - Wine. Fonte: Elaborada pelo autor Figura 4.45: Acurácia para 49 mapas diferentes - Wingnut. Fonte: Elaborada pelo autor Estrutura de fusão com validação cruzada A estrutura com 49 mapas de tamanhos diferentes foi testada através da validação cruzada estratificada. Como descrito no capítulo anterior, os conjuntos de dados são divi-

79 4.3. MAPAS DE TAMANHOS DIFERENTES 59 didos em 10 subconjuntos e a cada simulação, um subconjunto é retirado para teste e os outros 9 formam o conjunto de treinamento. A Tabela 4.9 mostra as principais medidas estatísticas obtidas para o algoritmo através da validação cruzada estratificada. As equações que deram melhores resultados para os conjuntos de dados são as equações 3.1 (média simples dos vetores de peso dos neurônios dos mapas) e equação 3.2 (média ponderada entre os pesos dos neurônios e seus respectivos hits). Quanto às abordagens de ordenação e fusão, a primeira mostrou-se mais eficiente para grande parte dos conjuntos de dados, em que os mapas são ordenados pelo índice de validação e combinados pelo critério da melhora do MSQE.

80 Tabela 4.9: Resultados para a validação cruzada estratificada N o Dataset Equação Abordagem Valor Valor Valor Q1 Q2 Q3 Desvio máximo mínimo médio (mediana) padrão 01 BC Wisconsin Chainlink Column Engytime Heart Hepatitis Ionosphere Iris Lsun PimaIndians Seeds Tetra TwoDiamonds Wine Wingnut CAPÍTULO 4. RESULTADOS

81 4.4. RESUMO 61 A Figura 4.46 mostra o boxplot que resume as informações da Tabela 4.9. Os números no eixo das abscissas representam os conjuntos de dados. Figura 4.46: Acurácia com validação cruzada estratificada. Fonte: Elaborada pelo autor. 4.4 Resumo Neste capítulo foram mostrados os resultados obtidos com as simulações computacionais, para a fusão de mapas de tamanhos iguais e de tamanhos diferentes. Sendo a primeira abordagem um experimento fatorial, o custo computacional foi bem mais elevado do que a segunda abordagem, uma vez que havia maior quantidade de elementos variando. Para os mapas de tamanhos diferentes, como pode ser observado, os resultados obtidos para as duas estruturas, com 7 e com 49 mapas, alcançaram resultados muito semelhantes em termos de acurácia. As divergências encontradas relacionam-se às porcentagens de hits e BMUs considerados na fusão. A validação cruzada estratificada obteve bons resultados de estimação da acurácia do algoritmo desenvolvido. No próximo capítulo são apresentadas as principais conclusões deste trabalho.

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Mapas Auto-Organizáveis Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si

Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si Classificação de Dados Os modelos de classificação de dados são preditivos, pois desempenham inferências

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Professor: Computação Gráfica I. Anselmo Montenegro Conteúdo: - Objetos gráficos planares. Instituto de Computação - UFF

Professor: Computação Gráfica I. Anselmo Montenegro  Conteúdo: - Objetos gráficos planares. Instituto de Computação - UFF Computação Gráfica I Professor: Anselmo Montenegro www.ic.uff.br/~anselmo Conteúdo: - Objetos gráficos planares 1 Objetos gráficos: conceitos O conceito de objeto gráfico é fundamental para a Computação

Leia mais

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas

Leia mais

1.1. Trabalhos Realizados na Área

1.1. Trabalhos Realizados na Área 1 1 Introdução Várias formas de tratamento de lesões de úlceras de perna têm sido empregadas hoje em dia. O método de tratamento dependerá da origem da úlcera bem como de seu estado patológico. Com o objetivo

Leia mais

Paradigmas de Aprendizagem

Paradigmas de Aprendizagem Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Agregação de Algoritmos de Aprendizado de Máquina (AM) Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta

Agregação de Algoritmos de Aprendizado de Máquina (AM) Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta Agregação de Algoritmos de Aprendizado de Máquina (AM) Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta (luizfsc@icmc.usp.br) Sumário 1. Motivação 2. Bagging 3. Random Forest 4. Boosting

Leia mais

Tópicos em Mineração de Dados

Tópicos em Mineração de Dados Tópicos em Mineração de Dados Descoberta de agrupamentos Método k-médias 1. Introdução A descoberta de agrupamentos é uma tarefa descritiva que procura agrupar dados utilizando a similaridade dos valores

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Aprendizado de Máquina André C. P. L. F. de Carvalho Posdoutorando: Isvani Frias-Blanco ICMC-USP Agrupamento de dados Tópicos Agrupamento de dados Dificuldades em agrupamento Algoritmos de agrupamento

Leia mais

CAPÍTULO 5 RESULTADOS. São apresentados neste Capítulo os resultados obtidos através do programa Classific, para

CAPÍTULO 5 RESULTADOS. São apresentados neste Capítulo os resultados obtidos através do programa Classific, para CAPÍTULO 5 RESULTADOS São apresentados neste Capítulo os resultados obtidos através do programa Classific, para as imagens coletadas no verão II, período iniciado em 18/01 e finalizado em 01/03 de 1999,

Leia mais

Mineração de Dados para Detecção de Padrões de Mudança de Cobertura da Terra. Padrões e processos em Dinâmica de uso e Cobertura da Terra

Mineração de Dados para Detecção de Padrões de Mudança de Cobertura da Terra. Padrões e processos em Dinâmica de uso e Cobertura da Terra Mineração de Dados para Detecção de Padrões de Mudança de Cobertura da Terra Padrões e processos em Dinâmica de uso e Cobertura da Terra Introdução 1 2 3 4 Capacidade de Armazenamento X Análise e Interpretação

Leia mais

DCBD. Avaliação de modelos. Métricas para avaliação de desempenho. Avaliação de modelos. Métricas para avaliação de desempenho...

DCBD. Avaliação de modelos. Métricas para avaliação de desempenho. Avaliação de modelos. Métricas para avaliação de desempenho... DCBD Métricas para avaliação de desempenho Como avaliar o desempenho de um modelo? Métodos para avaliação de desempenho Como obter estimativas confiáveis? Métodos para comparação de modelos Como comparar

Leia mais

Aula 8 - Reconhecimento e Interpretação. Prof. Adilson Gonzaga

Aula 8 - Reconhecimento e Interpretação. Prof. Adilson Gonzaga Aula 8 - Reconhecimento e Interpretação Prof. Adilson Gonzaga Elementos de Visão Computacional: Visão Computacional Processamento de Baio Nível Processamento de Nível Intermediário Processamento de Alto

Leia mais

4 Detecção de Silhueta

4 Detecção de Silhueta 4 Detecção de Silhueta No decorrer deste capítulo é proposto um modelo de detecção da silhueta da mão capaz de lidar com os erros da segmentação e ruídos na sua morfologia. Num primeiro passo são considerados

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

RECONHECIMENTO FACIAL UTILIZANDO EIGENFACES

RECONHECIMENTO FACIAL UTILIZANDO EIGENFACES Universidade Federal do Rio de Janeiro Instituto Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de Engenharia Programa de Engenharia de Sistemas e Computação Rio de Janeiro, RJ Brasil RECONHECIMENTO

Leia mais

ESTIMATIVA DE RADIAÇÃO SOLAR NA REGIÃO DO MACIÇO DE BATURITÉ: ABORDAGEM VIA REDES NEURAIS ARTIFICIAIS.

ESTIMATIVA DE RADIAÇÃO SOLAR NA REGIÃO DO MACIÇO DE BATURITÉ: ABORDAGEM VIA REDES NEURAIS ARTIFICIAIS. ESTIMATIVA DE RADIAÇÃO SOLAR NA REGIÃO DO MACIÇO DE BATURITÉ: ABORDAGEM VIA REDES NEURAIS ARTIFICIAIS. Arini de Menezes Costa 1, Kaio Martins Ramos 2, Hugo Hermano da Costa Castro 3, Antonio Alisson P.

Leia mais

Mineração de Dados. Modelos Descritivos. Descoberta de agrupamentos

Mineração de Dados. Modelos Descritivos. Descoberta de agrupamentos Mineração de Dados Descoberta de agrupamentos Modelos Descritivos tarefa de geração de um modelo descritivo consiste (em grande parte) em analisar os dados do domínio (entradas) e sugerir uma partição

Leia mais

5 Experimentos Conjunto de Dados

5 Experimentos Conjunto de Dados Experimentos 48 5 Experimentos Este capítulo apresenta o ambiente experimental utilizado para validar o método de predição do CTR proposto neste trabalho. Na seção 5.1, descrevemos a geração do conjunto

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos

Leia mais

Pontifícia Universidade Católica do Rio de Janeiro. Departamento de Informática. Fundamentos de Computação Gráfica

Pontifícia Universidade Católica do Rio de Janeiro. Departamento de Informática. Fundamentos de Computação Gráfica 1. Imagens sísmicas Pontifícia Universidade Católica do Rio de Janeiro Departamento de Informática Fundamentos de Computação Gráfica Aluno: Stelmo Magalhães Barros Netto Relatório do trabalho Imagens Sísmicas

Leia mais

Inteligência Artificial

Inteligência Artificial Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial Aprendizagem Outras Técnicas Prof. a Joseana Macêdo Fechine Régis

Leia mais

FACULDADE CAMPO LIMPO PAULISTA (FACCAMP) COORDENADORIA DE EXTENSÃO E PESQUISA CURSO DE PÓS-GRADUAÇÃO LATO SENSU EM MINERAÇÃO E CIÊNCIA DOS DADOS

FACULDADE CAMPO LIMPO PAULISTA (FACCAMP) COORDENADORIA DE EXTENSÃO E PESQUISA CURSO DE PÓS-GRADUAÇÃO LATO SENSU EM MINERAÇÃO E CIÊNCIA DOS DADOS FACULDADE CAMPO LIMPO PAULISTA (FACCAMP) COORDENADORIA DE EXTENSÃO E PESQUISA CURSO DE PÓS-GRADUAÇÃO LATO SENSU EM MINERAÇÃO E CIÊNCIA DOS DADOS PROJETO PEDAGÓGICO CAMPO LIMPO PAULISTA 2015 1. Público

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

CLASSIFICAÇÃO NÃO-SUPERVISIONADA DE IMAGENS DE SENSORES REMOTOS UTILIZANDO REDES NEURAIS AUTO-ORGANIZÁVEIS E MÉTODOS DE AGRUPAMENTOS HIERÁRQUICOS

CLASSIFICAÇÃO NÃO-SUPERVISIONADA DE IMAGENS DE SENSORES REMOTOS UTILIZANDO REDES NEURAIS AUTO-ORGANIZÁVEIS E MÉTODOS DE AGRUPAMENTOS HIERÁRQUICOS CLASSIFICAÇÃO NÃO-SUPERVISIONADA DE IMAGENS DE SENSORES REMOTOS UTILIZANDO REDES NEURAIS AUTO-ORGANIZÁVEIS E MÉTODOS DE AGRUPAMENTOS HIERÁRQUICOS Unsupervised classification of remote sensors images using

Leia mais

PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL

PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL Juliana A. ANOCHI 1, Sabrina B. M. SAMBATTI 1, Eduardo F. P. da LUZ 1, Haroldo F. de CAMPOS VELHO 1 Instituto Nacional de Pesquisas Espaciais - INPE

Leia mais

Buscas Informadas ou Heurísticas - Parte II

Buscas Informadas ou Heurísticas - Parte II Buscas Informadas ou Heurísticas - Parte II Prof. Cedric Luiz de Carvalho Instituto de Informática - UFG Graduação em Ciência da Computação / 2006 FUNÇÕES HEURÍSTICAS - 1/7 FUNÇÕES HEURÍSTICAS - 2/7 Solução

Leia mais

3 Aprendizado por reforço

3 Aprendizado por reforço 3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina

Leia mais

Unidade I ESTATÍSTICA. Prof. Celso Ribeiro Campos

Unidade I ESTATÍSTICA. Prof. Celso Ribeiro Campos Unidade I ESTATÍSTICA Prof. Celso Ribeiro Campos Visão geral da estatística Estatística: Conjunto de métodos e processos destinados a permitir o entendimento de um universo submetido a certas condições

Leia mais

FERRAMENTAS ESTATÍSTICAS PARA ANÁLISE DA CLASSIFICAÇÃO

FERRAMENTAS ESTATÍSTICAS PARA ANÁLISE DA CLASSIFICAÇÃO Objetivos: - QUANTIFICAR OS ERROS COMETIDOS NA CLASSIFICAÇÃO - MEDIR A QUALIDADE DO TRABALHO FINAL - AVALIAR A APLICABILIDADE OPERACIONAL DA CLASSIFICAÇÃO Fontes de erro das classificações temáticas Os

Leia mais

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA Inteligência Artificial Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA Projeto de Redes Neurais Projeto de Redes Neurais Baseado apenas em dados Exemplos para treinar uma rede devem ser compostos por

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Avaliação de Paradigmas Alessandro L. Koerich Mestrado/Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática Aprendizagem

Leia mais

Conceito de Estatística

Conceito de Estatística Conceito de Estatística Estatística Técnicas destinadas ao estudo quantitativo de fenômenos coletivos, observáveis. Unidade Estatística um fenômeno individual é uma unidade no conjunto que irá constituir

Leia mais

5 Análise Experimental

5 Análise Experimental 5 Análise Experimental 5.1. Base de dados para testes Foram gravados diversos vídeos que serviram para realizar os testes realizados nesta dissertação. Cada um dos vídeos gerados para medir qualidade da

Leia mais

A procura da melhor partição em Classificação Hierárquica: A abordagem SEP/COP

A procura da melhor partição em Classificação Hierárquica: A abordagem SEP/COP A procura da melhor partição em Classificação Hierárquica: A abordagem SEP/COP Lúcia Sousa Escola Superior de Tecnologia e Gestão, Instituto Politécnico de Viseu Fernanda Sousa Faculdade de Engenharia

Leia mais

Protótipo de Software de Reconhecimento de Voz Para Navegação em Jogos, Utilizando Rede Neural Artificial

Protótipo de Software de Reconhecimento de Voz Para Navegação em Jogos, Utilizando Rede Neural Artificial Protótipo de Software de Reconhecimento de Voz Para Navegação em Jogos, Utilizando Rede Neural Artificial Orientando: Derlei Brancher Orientador: Prof. Jacques Robert Heckmann - Mestre 1. Introdução Roteiro

Leia mais

2 Reconhecimento Facial

2 Reconhecimento Facial 2 Reconhecimento Facial Em termos gerais, o reconhecimento facial é o processo pelo qual se mede o grau de similaridade entre duas imagens faciais com o proposito de identificar a um indivíduo ou de verificar

Leia mais

Tabela 4.1 Distribuição dos indicadores por tipo Tipo de Indicador No. de indicadores. Indicadores de Evento 93. Indicadores de Tendência 37

Tabela 4.1 Distribuição dos indicadores por tipo Tipo de Indicador No. de indicadores. Indicadores de Evento 93. Indicadores de Tendência 37 4 Estudo de Casos A metodologia proposta no capítulo 3 foi aplicada em casos reais coletados de equipamentos Caterpillar da Sotreq. As falhas aqui estudadas são referentes a dois componentes do caminhão:

Leia mais

3 Estimação e Compensação de movimento na codificação de vídeo

3 Estimação e Compensação de movimento na codificação de vídeo Estimação e Compensação de movimento na codificação de vídeo 36 3 Estimação e Compensação de movimento na codificação de vídeo O objetivo do modelo temporal (que engloba as fases de estimação e compensação

Leia mais

étodos uméricos AJUSTE DE FUNÇÕES Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

étodos uméricos AJUSTE DE FUNÇÕES Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA étodos uméricos AJUSTE DE FUNÇÕES Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO FEDERAL DE EDUCAÇÃO TECNOLÓGICA

Leia mais

3 Modelos Comparativos: Teoria e Metodologia

3 Modelos Comparativos: Teoria e Metodologia 3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito

Leia mais

4 Modelagem Numérica. 4.1 Método das Diferenças Finitas

4 Modelagem Numérica. 4.1 Método das Diferenças Finitas 4 Modelagem Numérica Para se obter a solução numérica das equações diferenciais que regem o processo de absorção de CO 2,desenvolvido no capitulo anterior, estas precisam ser transformadas em sistemas

Leia mais

Visão computacional. Juliana Patrícia Detroz Orientador: André Tavares Silva

Visão computacional. Juliana Patrícia Detroz Orientador: André Tavares Silva Visão computacional Juliana Patrícia Detroz Orientador: André Tavares Silva Visão computacional Tentativa de replicar a habilidade humana da visão através da percepção e entendimento de uma imagem; Fazer

Leia mais

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural

Leia mais

Mistura de modelos. Marcelo K. Albertini. 31 de Julho de 2014

Mistura de modelos. Marcelo K. Albertini. 31 de Julho de 2014 Mistura de modelos Marcelo K. Albertini 31 de Julho de 2014 2/11 Mistura de modelos Ideia básica Em vez de aprender somente um modelo, aprender vários e combiná-los Isso melhora acurácia Muitos métodos

Leia mais

Outliers Detecção de Anomalias AULA DATA MINING

Outliers Detecção de Anomalias AULA DATA MINING Outliers Detecção de Anomalias AULA DATA MINING Motivação/Caso unidimensional Bill Gates ganha $500 milhões por ano. Ele está numa sala com 9 professores, 4 que recebem $40k/ano, 3 ganham $45k/ano, e 2

Leia mais

Extração de Conhecimento & Mineração de Dados

Extração de Conhecimento & Mineração de Dados Extração de Conhecimento & Mineração de Dados Nesta apresentação é dada uma breve introdução à Extração de Conhecimento e Mineração de Dados José Augusto Baranauskas Departamento de Física e Matemática

Leia mais

VISÃO COMPUTACIONAL PARA RECONHECIMENTO DE FACES APLICADO NA IDENTIFICAÇÃO E AUTENTICAÇÃO DE USUÁRIOS NA WEB. Márcio Koch

VISÃO COMPUTACIONAL PARA RECONHECIMENTO DE FACES APLICADO NA IDENTIFICAÇÃO E AUTENTICAÇÃO DE USUÁRIOS NA WEB. Márcio Koch VISÃO COMPUTACIONAL PARA RECONHECIMENTO DE FACES APLICADO NA IDENTIFICAÇÃO E AUTENTICAÇÃO DE USUÁRIOS NA WEB Márcio Koch Orientador: Jacques Robert Heckmann ROTEIRO Introdução Objetivos do trabalho Fundamentação

Leia mais

Descoberta de Conhecimento em Bases de Dados. Pesquisa de Clusters

Descoberta de Conhecimento em Bases de Dados. Pesquisa de Clusters Universidade Técnica de Lisboa INSTITUTO SUPERIOR DE ECONOMIA E GESTÃO Informática e Sistemas de Informação Aplicados em Economia Descoberta de Conhecimento em Bases de Dados. Pesquisa de Clusters Descoberta

Leia mais

1 INTRODUÇÂO. 1.1.Motivação

1 INTRODUÇÂO. 1.1.Motivação 22 1 INTRODUÇÂO 1.1.Motivação Duas componentes formam as perdas globais das empresas distribuidoras: perdas técnicas e perdas comerciais também denominadas perdas não técnicas. As perdas técnicas são,

Leia mais

4 SISTEMA DE CLASSIFICAÇÃO DE UNIDADES CONSUMIDORAS DE ENERGIA ELÉTRICA

4 SISTEMA DE CLASSIFICAÇÃO DE UNIDADES CONSUMIDORAS DE ENERGIA ELÉTRICA 94 4 SISTEMA DE CLASSIFICAÇÃO DE UNIDADES CONSUMIDORAS DE ENERGIA ELÉTRICA 4.1 INTRODUÇÃO Conforme dito no capítulo 1, a diminuição das perdas técnicas e comerciais é uma das principais prioridades das

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

AMOSTRAGEM. É a parte da Teoria Estatística que define os procedimentos para os planejamentos amostrais e as técnicas de estimação utilizadas.

AMOSTRAGEM. É a parte da Teoria Estatística que define os procedimentos para os planejamentos amostrais e as técnicas de estimação utilizadas. AMOSTRAGEM É a parte da Teoria Estatística que define os procedimentos para os planejamentos amostrais e as técnicas de estimação utilizadas. Nos planejamentos amostrais, a coleta dos dados deve ser realizada

Leia mais

Inteligência Artificial

Inteligência Artificial Inteligência Artificial Aula 6 Algoritmos Genéticos M.e Guylerme Velasco Roteiro Introdução Otimização Algoritmos Genéticos Representação Seleção Operadores Geneticos Aplicação Caixeiro Viajante Introdução

Leia mais

Reconhecimento facial. uma aplicação prática do reconhecimento de padrões

Reconhecimento facial. uma aplicação prática do reconhecimento de padrões Reconhecimento facial uma aplicação prática do reconhecimento de padrões Márcio Koch, junho 2014 Pauta Apresentação Visão computacional Reconhecimento de padrões Analise de Componentes Principais Reconhecimento

Leia mais

Uma Introdução a SVM Support Vector Machines. Obs: Baseada nos slides de Martin Law

Uma Introdução a SVM Support Vector Machines. Obs: Baseada nos slides de Martin Law Uma Introdução a SVM Support Vector Machines Obs: Baseada nos slides de Martin Law Sumário Historia das SVMs Duas classes, linearmente separáveis O que é um bom limite para a decisão? Duas classes, não

Leia mais

CAPÍTULO 4 SEGMENTAÇÃO DE IMAGENS SAR

CAPÍTULO 4 SEGMENTAÇÃO DE IMAGENS SAR CAPÍTULO 4 SEGMENTAÇÃO DE IMAGENS SAR Segundo Gonzales e Wintz (1987), um dos primeiros passos do processo de análise de uma imagem digital consiste em particioná-la em seus elementos constituintes. O

Leia mais

Professora conteudista: Maria Ester Domingues de Oliveira. Revisor: Francisco Roberto Crisóstomo

Professora conteudista: Maria Ester Domingues de Oliveira. Revisor: Francisco Roberto Crisóstomo Estatística Básica Professora conteudista: Maria Ester Domingues de Oliveira Revisor: Francisco Roberto Crisóstomo Sumário Estatística Básica Unidade I 1 CICLO SEMPRE CRESCENTE...2 2 ESTATÍSTICA: CIÊNCIA

Leia mais

Estatística

Estatística Estatística 1 2016.2 Sumário Capítulo 1 Conceitos Básicos... 3 MEDIDAS DE POSIÇÃO... 3 MEDIDAS DE DISPERSÃO... 5 EXERCÍCIOS CAPÍTULO 1... 8 Capítulo 2 Outliers e Padronização... 12 VALOR PADRONIZADO (Z)...

Leia mais

Processamento Digital de Imagens

Processamento Digital de Imagens Ciência da Computação Processamento Digital de Imagens Prof. Sergio Ribeiro Tópicos Introdução Espectro Eletromagnético Aquisição e Digitalização de Imagens Efeitos da Digitalização Digitalização Sensoriamento

Leia mais

INTELIGÊNCIA COMPUTACIONAL EM AMBIENTES DE PROCESSAMENTO PARALELO. Lamartine N. F. Guimarães.

INTELIGÊNCIA COMPUTACIONAL EM AMBIENTES DE PROCESSAMENTO PARALELO. Lamartine N. F. Guimarães. INTELIGÊNCIA COMPUTACIONAL EM AMBIENTES DE PROCESSAMENTO PARALELO Lamartine N. F. Guimarães. Roteiro Inteligência Computacional: Problemas. Os BEOWULFS do IEAv. Possibilidades de Paralelismo. Redes neurais:

Leia mais

Estudo heurístico de performance de estratégias de investimento simples baseadas na média móvel e desvio padrão no mercado ForEx

Estudo heurístico de performance de estratégias de investimento simples baseadas na média móvel e desvio padrão no mercado ForEx Estudo heurístico de performance de estratégias de investimento simples baseadas na média móvel e desvio padrão no mercado ForEx Lucas Roberto da Silva Centro de Automação, Gestão e Pesquisa em finanças

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Aprendizado de Máquina Introdução ao WEKA Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://web.inf.ufpr.br/luizoliveira Luiz S. Oliveira (UFPR) Aprendizado de

Leia mais

REDES DE SENSORES PARA A MONITORAÇÃO E ALERTA DE CHUVAS BASEADO NO ALGORITMO DE FUSÃO DE DADOS FUZZY RESUMO

REDES DE SENSORES PARA A MONITORAÇÃO E ALERTA DE CHUVAS BASEADO NO ALGORITMO DE FUSÃO DE DADOS FUZZY RESUMO REDES DE SENSORES PARA A MONITORAÇÃO E ALERTA DE CHUVAS BASEADO NO ALGORITMO DE FUSÃO DE DADOS FUZZY BRASIL,Joabe GUIMARÃES, Auritonio NOGUEIRA, Elder VILLANUEVA 4, Juan Moises Mauricio Centro de Energias

Leia mais

5 Experimentos Corpus

5 Experimentos Corpus 5 Experimentos 5.1. Corpus A palavra corpus significa corpo em latim. No contexto de Aprendizado de Máquina, corpus se refere a um conjunto de dados utilizados para experimentação e validação de modelos.

Leia mais

Fases do Método Estatístico

Fases do Método Estatístico Fases do Método Estatístico Coleta de dados São inúmeras as maneiras de coletar dados, e a amostragem é a maneira mais frequente. Embora a amostragem seja um conceito simples, muitas vezes inúmeras e complexas

Leia mais

Classificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka

Classificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka Classificação: Árvores de Decisão e k-nn Eduardo Raul Hruschka Árvores de Decisão Métodos para aproximar funções discretas, representadas por meio de uma árvore de decisão; Árvores de decisão podem ser

Leia mais

Aula 25: Análise Fatorial. Prof. Eduardo A. Haddad

Aula 25: Análise Fatorial. Prof. Eduardo A. Haddad Aula 25: Análise Fatorial Prof. Eduardo A. Haddad Utilização específica Como identificar o potencial de desenvolvimento agropecuário dos municípios brasileiros? Banco de dados municipais: Tamanho do rebanho,

Leia mais

PROJETO E ANÁLISES DE EXPERIMENTOS (PAE) INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS EM ENGENHARIA

PROJETO E ANÁLISES DE EXPERIMENTOS (PAE) INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS EM ENGENHARIA PROJETO E ANÁLISES DE EXPERIMENTOS (PAE) INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS EM ENGENHARIA VARIABILIDADE NA MEDIDA DE DADOS CIENTÍFICOS Se numa pesquisa, desenvolvimento de um processo ou produto, o valor

Leia mais

Análise Sintática de Frases utilizando Gramáticas Livres de Contexto Probabilísticas

Análise Sintática de Frases utilizando Gramáticas Livres de Contexto Probabilísticas Universidade de São Paulo Mestrado em Ciência da Computação Instituto de Matemática e Estatística Disciplina MAC5725 Lingüística Computacional Análise Sintática de Frases utilizando Gramáticas Livres de

Leia mais

LABORATÓRIO Nº 1. Análise de Padrões de Distribuição de Pontos

LABORATÓRIO Nº 1. Análise de Padrões de Distribuição de Pontos LABORATÓRIO Nº 1 Análise de Padrões de Distribuição de Pontos 1. Objetivos: O objetivo deste laboratório é ilustrar as várias formas de analisar padrão de pontos, a partir de alguns conjuntos de dados.

Leia mais

Clóvis de Araújo Peres Cargo: Professor Titular de Estatística da USP UNIFESP Formação: PhD em Estatística pela Universidade WISCONSIN - USA

Clóvis de Araújo Peres Cargo: Professor Titular de Estatística da USP UNIFESP Formação: PhD em Estatística pela Universidade WISCONSIN - USA TÍTULO: ESTUDO ESTATÍSTICO PARA DETERMINAÇÃO DO ERRO DE MICROMEDIÇÃO DAS ÁREAS PILOTO DE CONTROLE E REDUÇÃO DE PERDAS DO SISTEMA DE ABASTECIEMNTO DE ÁGUA DO MUNICÍPIO DE GUARULHOS. TEMA DO TRABALHO: ABASTECIMENTO

Leia mais

P. P. G. em Agricultura de Precisão DPADP0803: Geoestatística (Prof. Dr. Elódio Sebem)

P. P. G. em Agricultura de Precisão DPADP0803: Geoestatística (Prof. Dr. Elódio Sebem) Amostragem: Em pesquisas científicas, quando se deseja conhecer características de uma população, é comum se observar apenas uma amostra de seus elementos e, a partir dos resultados dessa amostra, obter

Leia mais

Computação Gráfica - 09

Computação Gráfica - 09 Universidade Federal do Vale do São Francisco Curso de Engenharia da Computação Computação Gráfica - 9 jorge.cavalcanti@univasf.edu.br www.univasf.edu.br/~jorge.cavalcanti www.twitter.com/jorgecav Objetos

Leia mais

Protótipo de Software para Reconhecimento de Impressões Digitais

Protótipo de Software para Reconhecimento de Impressões Digitais Protótipo de Software para Reconhecimento de Impressões Digitais Aluno: Alex Sandro da Silva Orientador: Paulo de Tarso Mendes Luna Semestre - 99/1 Roteiro da Apresentação INTRODUÇÃO CONCEITOS BÁSICOS

Leia mais

CAPÍTULO V 5 CONCLUSÕES E RECOMENDAÇÕES 5.1 SÍNTESE DO TRABALHO DESENVOLVIDO

CAPÍTULO V 5 CONCLUSÕES E RECOMENDAÇÕES 5.1 SÍNTESE DO TRABALHO DESENVOLVIDO 182 CAPÍTULO V 5 CONCLUSÕES E RECOMENDAÇÕES 5.1 SÍNTESE DO TRABALHO DESENVOLVIDO Neste trabalho foi proposta uma metodologia para a automação da resseção espacial de imagens digitais baseada no uso hipóteses

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos

Leia mais

SOLUÇÃO ANALÍTICA E NUMÉRICA DA EQUAÇÃO DE LAPLACE

SOLUÇÃO ANALÍTICA E NUMÉRICA DA EQUAÇÃO DE LAPLACE 15 16 SOLUÇÃO ANALÍTICA E NUMÉRICA DA EQUAÇÃO DE LAPLACE 3. Todos os dispositivos elétricos funcionam baseados na ação de campos elétricos, produzidos por cargas elétricas, e campos magnéticos, produzidos

Leia mais

4 Análise da Volatilidade

4 Análise da Volatilidade 4 Análise da Volatilidade 4.1 Metodologia da Regressão Uni-variada Esse estudo utilizou a volatilidade histórica dos ativos para descrever uma relação com a volatilidade futura por uma regressão uni-variada.

Leia mais

Algoritmos 3/17/ Algoritmos como área de estudo e investigação

Algoritmos 3/17/ Algoritmos como área de estudo e investigação Algoritmos e Complexidade Ana Teresa Freitas INESC-ID/IST ID/IST 3/17/2005 1 O que é um algoritmo? Algoritmos: Sequência de instruções necessárias para a resolução de um problema bem formulado [passíveis

Leia mais

4 as Jornadas Politécnicas de Engenharia

4 as Jornadas Politécnicas de Engenharia 4 as Jornadas Politécnicas de Engenharia Imagens de Faces: Exemplos de Metodologias e Aplicações Fernando Carvalho, João Manuel R. S. Tavares Aplicação Metodologias Modelos Conclusões Trabalho Futuro Introdução:

Leia mais

Exercício Área - SPRING

Exercício Área - SPRING Exercício Área - SPRING Figura 01 - Visualização dos dados contidos no projeto ativo. Comentários - Nesta etapa foi aberto o banco de dados, neste caso denominado São Paulo e foi definido o projeto, também

Leia mais

VISÃO COMPUTACIONAL. Marcelo Henrique dos Santos

VISÃO COMPUTACIONAL. Marcelo Henrique dos Santos VISÃO COMPUTACIONAL Marcelo Henrique dos Santos marcelosantos@outlook.com São Paulo SP, Agosto/2013 INTRODUÇÃO Processamento de imagens é um processo onde a entrada do sistema é uma imagem e a saída é

Leia mais

Classificação de Folhas por Tamanho e Forma Através de Descritores Geométricos e Análise dos Componentes Principais

Classificação de Folhas por Tamanho e Forma Através de Descritores Geométricos e Análise dos Componentes Principais Classificação de Folhas por Tamanho e Forma Através de Descritores Geométricos e Análise dos Componentes Principais MARCOS C. DE ANDRADE, LÚCIO C. M. PINTO Centro de Desenvolvimento da Tecnologia Nuclear

Leia mais

Curvas HERMITE. Figura 1 - Efeito oscilatório dos polinômios: [PAVLIDIS, 1984]

Curvas HERMITE. Figura 1 - Efeito oscilatório dos polinômios: [PAVLIDIS, 1984] Curvas A representação de uma curva como uma sucessão de trecho retos pode ser suficiente para várias aplicações. No entanto, curvas e superfícies complexas normalmente demandam uma maneira mais eficiente

Leia mais

Universidade Federal do Rio de Janeiro - IM/DCC & NCE

Universidade Federal do Rio de Janeiro - IM/DCC & NCE Universidade Federal do Rio de Janeiro - IM/DCC & NCE Processamento de Imagens Segmentação Antonio G. Thomé thome@nce.ufrj.br Sala AEP/133 Conceituação Segmentação é uma tarefa básica no processo de análise

Leia mais

Processamento de Imagem. Filtragem no Domínio Espacial Professora Sheila Cáceres

Processamento de Imagem. Filtragem no Domínio Espacial Professora Sheila Cáceres Processamento de Imagem Filtragem no Domínio Espacial Professora Sheila Cáceres Filtragem A filtragem de imagens pode ser realizada no domínio do espaço e da frequência Operadores de filtragem são classificados

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

Unidade I ESTATÍSTICA APLICADA. Prof. Luiz Felix

Unidade I ESTATÍSTICA APLICADA. Prof. Luiz Felix Unidade I ESTATÍSTICA APLICADA Prof. Luiz Felix O termo estatística Provém da palavra Estado e foi utilizado originalmente para denominar levantamentos de dados, cuja finalidade era orientar o Estado em

Leia mais

Geometria Computacional

Geometria Computacional Geometria Computacional Claudio Esperança Paulo Roma Cavalcanti Estrutura do Curso Aspectos teóricos e práticos Construção e análise de algoritmos e estruturas de dados para a solucionar problemas geométricos

Leia mais

Inteligência Artificial Redes Neurais Artificiais

Inteligência Artificial Redes Neurais Artificiais Pós-Graduação em Engenharia Elétrica Inteligência Artificial Redes Neurais Artificiais João Marques Salomão Rodrigo Varejão Andreão Arquitetura e composição das RNAs Uma rede neural artificial é composta

Leia mais

Métodos Não Paramétricos

Métodos Não Paramétricos Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Métodos não Paramétricos Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Métodos Não Paramétricos Introduzir

Leia mais

Compressão de Imagens Usando Wavelets: Uma Solução WEB para a Codificação EZW Utilizando JAVA. Utilizando JAVA. TCC - Monografia

Compressão de Imagens Usando Wavelets: Uma Solução WEB para a Codificação EZW Utilizando JAVA. Utilizando JAVA. TCC - Monografia Compressão de Imagens Usando Wavelets: Uma Solução WEB para a Codificação EZW Utilizando JAVA TCC - Monografia Wanderson Câmara dos Santos Orientador : Prof. Dr. Luiz Felipe de Queiroz Silveira 1 Departamento

Leia mais

REDES NEURAIS ARTIFICIAIS: UMA CONTRIBUIÇÃO AO PROCESSO DE DECISÕES FINANCEIRAS

REDES NEURAIS ARTIFICIAIS: UMA CONTRIBUIÇÃO AO PROCESSO DE DECISÕES FINANCEIRAS REDES NEURAIS ARTIFICIAIS: UMA CONTRIBUIÇÃO AO PROCESSO DE DECISÕES FINANCEIRAS WILSON KENDY TACHIBANA VERIDIANA DE FÁTIMA ORLANDI Resumo: As redes neurais artificiais são modelos baseados no comportamento

Leia mais

Máquinas de suporte vetorial e sua aplicação na detecção de spam

Máquinas de suporte vetorial e sua aplicação na detecção de spam e sua aplicação na detecção de spam Orientador: Paulo J. S. Silva (IME-USP) Universidade de São Paulo Instituto de Matemática e Estatística Departamento de Ciência da Computação MAC499 Trabalho de Formatura

Leia mais

Um Algoritmo de Mapa Auto-Organizável por Lote Baseado em Distâncias Adaptativas

Um Algoritmo de Mapa Auto-Organizável por Lote Baseado em Distâncias Adaptativas Um Algoritmo de Mapa Auto-Organizável por Lote Baseado em Distâncias Adaptativas Luciano D. S. Pacífico 1, Francisco de A. T. de Carvalho 1 1 Centro de Informática Universidade Federal de Pernambuco (UFPE)

Leia mais