Aprendizagem automática Mapas auto-organizativos (SOMs) 1
Redes neuronais de Kohonen self-organizing maps (SOMS) Visão algébrica dum conjunto de informação (valores, sinais, magnitudes,...) vs. Visão topológica da informação (relações entre dados) 2
Redes neuronais de Kohonen self-organizing maps (SOMS) Compressão da informação Mapeamento numa superfície 2D. Self-Organized Topological Features Maps (!!!) Preservação da topologia. 3
Redes neuronais de Kohonen Arquitectura Uma única camada de neurónios. 4
Redes neuronais de Kohonen Arquitectura Uma única camada de neurónios. n pesos para cada neurónio (n = número de inputs) 5
Redes neuronais de Kohonen Topologia Definição de distância entre neurónios Neurónio 1ª vizinhança 2ª vizinhança O output de cada neurónio só influencia neurónios próximos. 6
Redes neuronais de Kohonen Objectivo Mapear sinais semelhantes em neurónios próximos 7
Redes neuronais de Kohonen Sinais semelhantes em neurónios próximos Sinais semelhantes correspondem à mesma classe? NÃO SIM 8
Redes neuronais de Kohonen Superfície toroidal Vizinhança 2ª vizinhança 1ª vizinhança Neurónio 9
Redes neuronais de Kohonen Aprendizagem competitiva Após input, um só neurónio é activado (neurónio central ou vencedor) Neurónio central é o que tiver pesos mais semelhantes ao input. Tradicionalmente, semelhança = distância Euclideana n w i x i= 1 ( i ) 2 n nº de inputs w valor do peso x valor do input 10
Redes neuronais de Kohonen Aprendizagem competitiva 11
Redes neuronais de Kohonen Aprendizagem competitiva Pesos do neurónio central são corrigidos de modo a torná-los ainda mais semelhantes ao input. Pesos de neurónios vizinhos também são adaptados com o mesmo objectivo mas em menor escala. Neurónio 1ª vizinhança 2ª vizinhança 12
Redes neuronais de Kohonen Aprendizagem competitiva A correção dos neurónios vizinhos após activação de um neurónio depende de: 1. Distância ao neurónio vencedor (quanto mais longe menor a correcção) 2. Tempo de treino (no início do treino aplicam-se correcções mais drásticas) 3. Diferença entre o peso e o input (quanto maior a diferença maior a correcção). 13
Redes neuronais de Kohonen Normalização dos dados A activação de neurónios e as correcções dependem da distância Euclideana. Se um descritor variar numa escala muito maior que outro, o primeiro vai ter mais influência no resultado. Logo, para todos os descritores estarem em igualdade é necessário NORMALIZAR previamente os dados. 14
Redes neuronais de Kohonen Normalização dos dados Exemplo de normalização: 1. encontrar o valor máximo (MAX) e mínimo (MIN) para um descritor. 2. substituir cada valor x por (x-min)/(max-min) (passa a variar entre 0 e 1) ou por 0.1 + 0.8 (x-min)/(max-min) (passa a variar entre 0.1 e 0.9, útil para redes BPG) 15
Redes neuronais de Kohonen Normalização dos dados Outro exemplo de normalização (normalização z): 1. encontrar o valor médio (aver) e o desvio padrão (sd) para um descritor. 2. substituir cada valor x por (x-aver)/sd (o descritor normalizado passa a ter média = 0 e desvio padrão = 1) 16
Redes neuronais de Kohonen: Aplicação Classificação geográfica de petróleos para identificação da origem de derrames de petróleos brutos. A partir de características químicas de petróleos. Base de dados com características químicas de petróleos de diferentes origens Amostra (características químicas) REDES NEURONAIS Classe geográfica A. M. Fonseca, J. L. Biscaya, J. Aires-de-Sousa, A. M. Lobo,"Geographical classification of crude oils by Kohonen self-organizing maps", Anal. Chim. Acta 2006, 556 (2), 374-382. 17
Características químicas de petróleos Teor em vários compostos determinados por cromatografia gasosa / espectrometria de massa (GC / MS) Exemplos (22R)17α(H),21β(H)-30,31-Bishomohopano / 17α(H),21β(H)-Hopano 18α(H)-Oleanano / 17α(H),21β(H)-Hopano 1-Isopropil-2-metilnaftaleno H H 3-Metilfenantreno 1-Metildibenzotiofeno H H 18α(H)-Oleanano 3- Metilfenantreno 18
Rede neuronal de Kohonen Input do vector Neurónio vencedor Descritores GC/MS de uma amostra de petróleo Pesos 19
Resultados Conjunto de treino: 133 amostras 20 origens geográficas diferentes 21 descritores de GC/MS Bom agrupamento 97% previsões correctas Conjunto de teste: 55 amostras 70% previsões correctas 20
Rede neuronal Counterpropagation (CPG) SOM com uma camada de output Camada de input Camada de output 21
Treino de uma rede neuronal CPG Apresentação do input input output Correcção dos pesos na camada de input Correcção dos pesos correspondentes na camada de output 22
Previsão por uma rede neuronal CPG Apresentação do input input previsão 23
Rede neuronal CPG com múltiplos outputs Treino Neurónio vencedor Previsão Camada de input Camada de output 24
CPGNN: aplicação Previsão da capacidade para ligar a GPCR (G-Protein-Coupled Receptors) P.Selzer, P. Ertl, QSAR Comb. Sci. 2005, 24, 270-276; J. Chem. Inf. Model. 2006, 46 (6), 2319-2323. 25
CPGNN: aplicação Previsão da capacidade para ligar a GPCR (G-Protein-Coupled Receptors) P.Selzer, P. Ertl, QSAR Comb. Sci. 2005, 24, 270-276; J. Chem. Inf. Model. 2006, 46 (6), 2319-2323. Rede CPG de tamanho 250 250 Conjunto de treino: 24870 moléculas aleatoriamente retiradas de catálogos ( drug-like ) 1709 moléculas ligandos de GPCR Input: 225 descritores (códigos RDF) Output: 9 níveis (GPCR e subfamília adrenalin, bradykinin, dopamine, endothelin, histamine, opioid, serotonin, vasopressin ). Valores binários (0/1) consoante SIM ou NÃO. 26
CPGNN: aplicação à previsão de ligandos de GPCR Resultados: 1º nível de output (ligando de GPCR) Os valores dos pesos estão traduzidos em cores. Zonas activadas por ligandos P.Selzer, P. Ertl, QSAR Comb. Sci. 2005, 24, 270-276; J. Chem. Inf. Model. 2006, 46 (6), 2319-2323. 27
CPGNN: aplicação à previsão de ligandos de GPCR Resultados: níveis de output nº 4 ( dopamine ) e nº 7 ( opioid ) P.Selzer, P. Ertl, QSAR Comb. Sci. 2005, 24, 270-276; J. Chem. Inf. Model. 2006, 46 (6), 2319-2323. 28
CPGNN: aplicação à previsão de ligandos de GPCR Resultados: Conjunto de teste (25096 não-gpcr e 1490 GPCR) 71% dos ligandos correctamente previstos 18% falsos positivos P.Selzer, P. Ertl, QSAR Comb. Sci. 2005, 24, 270-276; J. Chem. Inf. Model. 2006, 46 (6), 2319-2323. 29
SOMs no programa JATOON http://www.dq.fct.unl.pt/staff/jas/jatoon Paste dos dados 30
SOMs no programa JATOON http://www.dq.fct.unl.pt/staff/jas/jatoon Visualização da distribuição dos objectos. Neurónios coloridos de acordo com as classes dos objectos que os activam. 31
SOMs no programa JATOON http://www.dq.fct.unl.pt/staff/jas/jatoon Distribuição dos objectos. 32
SOMs no programa JATOON http://www.dq.fct.unl.pt/staff/jas/jatoon Inspecção dos pesos num determinado nível da camada de input. 33