Redes Neurais e Sistemas Fuzzy
|
|
- Milena Dias Amaral
- 5 Há anos
- Visualizações:
Transcrição
1 Redes Neurais e Sistemas Fuzzy Mapas Auto-Organizáveis 1. O Mapa Auto-Organizável (SOM) Sistema auto-organizável inspirado no córtex cerebral. Nos mapas tonotópicos do córtex, p. ex., neurônios vizinhos respondem a freqüências sonoras similares. Existe correlação entre a ordenação da freqüência de entrada e a posição do neurônio no mapa. A arquitetura do SOM corresponde a uma rede neural com uma camada competitiva bidimensional ou unidimensional, onde existe interação lateral entre os neurônios dentro de uma vizinhança. Os neurônios competem entre si, através de conexões especiais que implementam reforço central e inibição lateral. Através do ajuste de pesos considerando as vizinhanças, se preserva a distribuição de probabilidades (topologia) dos vetores de entrada. Com isso, unidades fisicamente próximas no mapa respondem a classes de vetores de entrada que são próximas entre si. Regiões no espaço de entrada com maior densidade de vetores de entrada produzem regiões no mapa envolvendo maior número de neurônios. 2
2 Formação auto-organizada de mapas sensoriais Estrutura básica de circuitos neurais usada em modelos cerebrais. Kernel de interações laterais: chapéu mexicano. Matriz de entrada M sinais de entrada X Matriz de realimentação N Respostas de saída Y 3 Formação de bolhas de ativação Bolhas bidimensionais de atividades. Atividade de uma célula corresponde ao tamanho do ponto. (a) 7 unidades na parte positiva, 15 unidades na parte negativa (b) 1 unidade na parte positiva, 5 unidades na parte negativa 4
3 Somatotopia: mapeamento das sensações da superfície do corpo na estrutura do cérebro Existem outros mapas sensoriais: retinotopia, tonotopia Córtex Somatossensorial primário Áreas Somatossensoriais 5 Arquitetura da rede SOM Camada Competitiva Camada de Entrada 6
4 Processamento do SOM A rede SOM pode ser modelada de forma contínua, através de um sistema dinâmico, envolvendo conexões realimentadoras para produzir excitação central e inibição lateral, ou de forma discreta, envolvendo um juiz externo, para escolher um neurônio vencedor num processo de competição do tipo o vencedor leva tudo. O processamento da SOM pode ser resumido através do seguinte procedimento de aprendizado não-supervisionado: Apresentar um vetor na entrada da rede Calcular as ativações dos neurônios da camada competitiva Determinar o neurônio vencedor (neurônio mais próximo da entrada) Fase de treinamento: Modificar o vetor de pesos do vencedor e de todos os neurônios dentro de uma vizinhança do vencedor. Fase de recuperação (recordação) ou atuação: O neurônio vencedor indica o agrupamento ao qual o vetor de entrada pertence. 7 Treinamento do SOM O treinamento do SOM se baseia no ajuste de uma vizinhança centrada no neurônio vencedor, de modo a orientar o vetor de pesos de todos os neurônios da vizinhança em direção ao vetor de entrada. O tamanho da vizinhança deve variar no tempo, iniciando com uma abrangência larga e finalizando com uma vizinhança muito estreita. A vizinhança pode ser implementada através de uma função contínua, como uma gaussiana, ou discreta, incluindo os vizinhos mais próximos dentro de um quadrado ou hexágono de largura variável. 8
5 Mapeamento do Espaço de Entrada num Espaço de Saída Considere que H representa o espaço (contínuo) de entrada, cuja topologia é representada pela relação métrica dos vetores x H, e que A represente um espaço de saída discreto. Então, representa a transformação não-linear chamada de mapa de características, que mapeia o espaço de entrada H para o espaço de saída A: : H A A organização do mapa é visualizada pela imagem dos pesos no espaço de característica, assinalando os vizinhos mais próximos. 9 Mapeamento do Espaço de Entrada num Espaço de Saída Espaço de entrada contínuo w 1 Espaço de saída discreto 1 w 6 w 1 (x;w) 2 3 i(x) w 5 w w 4 w
6 Ajuste dos pesos do SOM Na fase de treinamento, os pesos dos neurônios dentro de uma certa vizinhança centrada no neurônio vencedor são ajustados de modo a aproximá-los do vetor de entrada w 1 : w w6 2 w 3 w 1 w 5 w 9 w 5 x w 3 w 11 w 12 w w 4 w8 8 w 7 w 6 w 2 w 1 x w 7 w 4 w 9 x: x 1 x 2 n n Atualização dos pesos Dentro da vizinhança os pesos são calculados por: w i (n + 1) = w i (n) + (n). (x w i (n)) A taxa de aprendizado, (n), deve decrescer com o tempo discreto n: (n) = 0 exp _ n ( 1 ) x (x - w i (n)) w i (n+1) w i (n) 1 = 20 1 = 5 12
7 Atualização dos pesos para vizinhança contínua Todos neurônios da rede têm seus pesos atualizados por: Sendo ic a função de vizinhança gaussiana, centrada no neurônio vencedor de índice c : A largura da vizinhança deve também decrescer com o tempo: w i (n+1) = w i (n) + (n). ic (n).(x(n) w i (n)) ic (n) = exp (n) = 0 exp d 2 ic ( ) 2 2 (n) _ n ( ) 2 ic = 5 Tipicamente, escolhe-se 0 de modo que toda a rede sofra ajustes significativos na fase inicial do aprendizado. = 1 13 Simulação da rede SOM Inicialização aleatória dos pesos normalizados A auto-organização da rede pode ser a qualquer tempo visualizada traçando-se linhas no espaço dos pesos entre os vetores de peso que são os vizinhos mais próximos. Para melhor visualização, apenas as linhas ortogonais entre vizinhos são traçadas. Com a inicialização aleatória normalizada, a rede não está auto-organizada e a figura correspondente é de uma malha de conexões aleatórias de pontos numa circunferência. Conforme o treinamento avança, a rede vai se tornando auto-organizada com as conexões entre pesos de neurônios vizinhos correspondendo à distribuição dos vetores de entrada. 14
8 As fases do processo adaptativo: ordenação e convergência O treinamento do SOM usualmente ocorre em duas fases: uma fase de ordenação, ou auto-organização, e uma fase de convergência. Fase de ordenação: Nesta fase ocorre a ordenação topológica dos vetores de peso, podendo se estender por 1000 épocas ou mais. A taxa de aprendizagem deve iniciar com um valor próximo a 0,1, decrescendo gradualmente, mas permanecendo acima de 0,01. Sugestão de parâmetros para 1000 épocas: 0 = 0,1; 1 = 1000 (com isso, f = 0,037). A função de vizinhança deve inicialmente incluir quase todos os neurônios da grade e então diminuir lentamente com o tempo. Assumindo uma grade bidimensional quadrada, 0 seria igual ao raio da grade. A redução da vizinhança seria controlada pela constante de tempo ( f = 1): ln 0 15 As fases do processo adaptativo: ordenação e convergência Fase de convergência: Esta fase é necessária para realizar um ajuste fino do mapa e produzir uma quantização estatística mais precisa do espaço de entrada. Como regra geral, o número de iterações nesta fase deve ser no mínimo 500 vezes o número de neurônios da grade. A taxa de aprendizagem deve permanecer durante esta fase em um valor pequeno, da ordem de 0,01. Não se deve deixar chegar a zero para que a grade não fique presa num estado metaestável (defeito topológico). A função de vizinhança deve conter apenas os vizinhos mais próximos do neurônio vencedor. 16
9 Rede SOM treinada Entradas: os quatro vetores de um espaço de Hamming bidimensional t = 1 t = 5 t = 30 Distribuição triangular na entrada: Distribuição circular na entrada: 17 Fase de reconhecimento Vetores de entrada de funções Booleanas (espaço de Hamming bidimensional) vencedor vencedor x 1 x vencedor vencedor 18
10 Funções: newsom, plotsom SOM no MATLAB n = 1 n = 20 n = 50 n = 100 n = SOM unidimensional n = 1 n = 20 n = 50 n = 100 n = 1500 n =
11 Simulação do SOM A simulação discreta do SOM é composta das seguintes etapas: 1. Inicializar os pesos da rede aleatoriamente e os parâmetros, e n max. Inicializar a variável de tempo discreto n = Apresentar, aleatoriamente, um vetor de entrada do arquivo de treinamento e calcular a ativação de todos os neurônios da rede. 3. Determinar o neurônio vencedor, de índice c. 4. Calcular o fator de vizinhança ( ic ) para cada neurônio i da rede, em função da sua distância em relação ao neurônio c, d ic. 5. Atualizar os pesos de todos os neurônios da rede, levando em conta o seu fator de vizinhança. 6. Incrementar n e atualizar os parâmetros e. 7. Voltar para 2 enquanto n n max. 21 Determinação do vencedor Como na rede SOM desejamos preservar a topologia do espaço de entrada, os vetores de treinamento não devem ser normalizados antes de serem apresentados à rede. Com isso, o processo de escolha do vencedor deve ser baseado na distância euclidiana entre os vetores de entrada (x) e de peso de cada neurônio i (w i ). Para cada neurônio i da rede, a rotina de competição deve calcular a magnitude do vetor diferença, x w i e determinar o índice c do neurônio com menor magnitude. 22
12 Determinação do fator de vizinhança Para uma rede bidimensional com L linhas e C colunas, a determinação da distância entre um neurônio i e o vencedor c, d ic, pode ser calculada diretamente pelas suas posições na rede, (L i, C i ) e (L c, C c ), respectivamente. Lin = 3 Lin = 2 Lin = quociente L c = floor(c /C) C c = mod(c, C) resto Lin = Col = (d ic ) 2 = (L i L c ) 2 + (C i C c ) 2 (n) = 0 exp _ n ( ) 2 ic (n) = exp d 2 ic ( ) 2 2 (n) 23 Dependência temporal dos parâmetros 24
13 Propriedades do Mapa de Características Aproximação do espaço de entrada: o algoritmo SOM é um algoritmo de quantização vetorial que fornece uma boa aproximação para o espaço de entrada H. Ordenação topológica: o mapa de características calculado pelo algoritmo SOM é ordenado de modo topológico: a localização espacial de um neurônio na grade corresponde a uma característica particular dos padrões de entrada. Casamento de densidade: o mapa de características reflete variações nas estatísticas da distribuição de entrada: regiões de H onde amostras x ocorrem com alta probabilidade são mapeadas para domínios maiores no espaço de saída A (maior resolução). Com isso, o mapa treinado apresenta um fator de magnificação m(x) correspondente à fdp f(x) do vetor aleatório de entrada X. Na forma padrão do algoritmo SOM, a codificação produz m(x) f 2/3 (x). Seleção de características: a partir dos dados do espaço de entrada o mapa seleciona um conjunto das melhores características para aproximar a distribuição subjacente. O mapa de características fornece uma aproximação discreta das chamadas curvas (superfícies) principais, representando uma generalização não-linear da análise de componentes principais. 25 Mapas Semânticos (Contextuais) Pode-se formar mapas topográficos para dados abstratos, como palavras, nos quais as relações semânticas são refletidas por suas distâncias relativas no mapa. Para tanto, é necessária a inclusão dos contextos nos quais cada símbolo aparece. Com isso, a rede é capaz de detectar a similaridade lógica entre palavras, a partir das estatísticas de seus contextos. O problema dos mapas semânticos está relacionado com a formação auto-organizada de uma organização de categorias (representação interna) por meio de dados que contêm informação implícita relacionada com estas categorias. O problema de aplicar a lei de adaptação competitiva (baseada em distância) a símbolos é que o significado de um símbolo é desassociado da sua codificação, não havendo assim uma noção de similaridade lógica entre as representações simbólicas. Entretanto, a similaridade lógica entre os símbolos pode ser detectada indiretamente se eles forem apresentados juntamente com um conjunto de atributos do item que eles codificam, ou seja, o seu contexto. O vetor de entrada para o mapa x seria a concatenação do código simbólico x s com o conjunto de atributos x a : x = [x s x a ] T. 26
14 Mapas Semânticos (Contextuais) A entrada do mapeamento semântico é um vetor de duas componentes ortogonais, x s e x a, onde a norma da componente dos atributos predomina sobre a norma da parte simbólica durante o processo de auto-organização. Assim, o mapeamento topográfico reflete principalmente as relações métricas do conjunto de atributos. Entretanto, como as entradas dos sinais simbólicos estão concomitantemente ativas com a componente simbólica durante o treinamento, são formados traços de memória entre estas entradas e as células do mapa que foram selecionadas pela componente de atributos. Por outro lado, durante a fase de reconhecimento de informações de entrada, os sinais de atributo são mais fracos, ou ausentes, mas, mesmo assim, a componente simbólica é capaz de ativar as mesmas unidades do mapa. Normalmente, os atributos são variáveis discretas (ausência: 0, ou presença: 1), cuja identidade é claramente dada pela sua posição no campo de atributos (x a ). Exemplo: geração de um mapa semântico cujas entradas representam a codificação do nome de um (entre 16) animal (x s ) e um conjunto de 13 atributos discretos (x a ), representando características como tamanho, número de patas, cobertura e hábitos. x s é um vetor 16-D com apenas um bit igual a a (= 0,2) e os demais são zero. 27 Nomes de animais e seus atributos vaca zebra cavalo leão tigre gato lobo cão raposa águia falcão couja ganso pato galinha pombo é pequeno é médio é grande tem 2 patas tem 4 patas tem pelos tem cascos tem crina tem penas caça corre voa nada
15 Treinamento Os 16 vetores de treinamento (29 elementos) foram normalizados e submetidos a uma rede 10 10, por 2000 épocas. Após o treinamento, cada célula se tornou mais responsiva a um vetor de entrada. Na fase de teste, foi apresentada como entrada x = [x s, 0] T, e a unidade vencedora foi anotada: pacíficos aves caçadores 29 Visualização por rotulação Podemos visualizar um mapa de características rotulando cada neurônio pelo padrão de teste que excita este neurônio de maneira máxima (melhor estímulo). A rotulação produz uma partição da grade de neurônios evidenciando uma hierarquia de domínios aninhados. pato pato cavalo cavalo zebra zebra vaca vaca vaca vaca pato pato cavalo zebra zebra zebra vaca vaca tigre tigre ganso ganso ganso zebra zebra zebra lobo lobo tigre tigre ganso ganso falcão falcão falcão lobo lobo lobo tigre tigre ganso coruja falcão falcão falcão lobo lobo lobo leão leão pombo coruja coruja falcão falcão cão cão cão leão leão pombo pombo coruja coruja coruja cão cão cão cão leão pombo pombo águia águia águia cão cão cão cão gato galinha galinha águia águia águia raposa raposa raposa gato gato galinha galinha águia águia águia raposa raposa raposa gato gato 30
Mapas Auto-Organizáveis de Kohonen SOM
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia maisMapas Auto-Organizáveis de Kohonen SOM
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia maisInteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida
Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas
Leia maisRedes Neurais. Mapas Auto-Organizáveis. 1. O Mapa Auto-Organizável (SOM) Prof. Paulo Martins Engel. Formação auto-organizada de mapas sensoriais
. O Mapa Auto-Organizável (SOM) Redes Neurais Mapas Auto-Organizáveis Sistema auto-organizável inspirado no córtex cerebral. Nos mapas tonotópicos do córtex, p. ex., neurônios vizinhos respondem a freqüências
Leia maisREDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM)
REDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM) APRENDIZADO COMPETITIVO Os algoritmos de aprendizado não-supervisionado são geralmente baseados em uma forma de competição entre os neurônios. O método
Leia maisRedes Neurais não Supervisionadas: SOM
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais não Supervisionadas: SOM DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Mapas Auto-Organizáveis Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia maisSelf Organizing Maps - Redes de Kohonen
Self Organizing Maps - Redes de Kohonen 1. Redes auto organizáveis Existe uma classe de redes neurais artificias que possuem a capacidade de auto organização, sendo por isto chamadas de redes auto organizáveis.
Leia maisAula 7 RNA Redes Auto-Organizáveis de Kohonen
2COP229 Aula 7 RNA Redes Auto-Organizáveis de Kohonen 2COP229 Sumário 1- Introdução 2- Processo de Aprendizado Competitivo 3- Mapas auto-organizáveis de Kohonen (SOM) 4- Projeto Prático 1-Introdução 2COP229
Leia maisClustering - c-means e Self Organizing Maps
- c-means e Self Organizing Maps Sarajane M. Peres e Clodoaldo A. M. Lima 13 de abril de 2015 Material baseado em: HAN, J. & KAMBER, M. Data Mining: Concepts and Techniques. 2nd. 2006 FAUSETT, L. Fundamentals
Leia maisMineração de Dados. Modelos Descritivos. Descoberta de agrupamentos
Mineração de Dados Descoberta de agrupamentos Modelos Descritivos tarefa de geração de um modelo descritivo consiste (em grande parte) em analisar os dados do domínio (entradas) e sugerir uma partição
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções
Leia maisRedes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de
Leia maisMapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995))
Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995)) que realiza simultaneamente agrupamento e visualização SOM usa aprendizagem não supervisionada para mapear dados
Leia mais6 Clustering: Definindo Grupos Estratégicos
6 Clustering: Definindo Grupos Estratégicos 6.1 Introdução Não é difícil deduzir que as 60 empresas distribuidoras de energia elétrica, operantes no SEB, apresentam características heterogêneas. Entretanto,
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas
Leia maisCapítulo 7. Mapas Auto-Organizados de Kohonen - SOM
Capítulo 7 Mapas Auto-Organizados de Kohonen - SOM Neste capítulo estudaremos um dos mais populares algoritmos na categoria de aprendizado não-supervisionado, as RNAs conhecidas como Mapas Auto-Organizados
Leia maisTópicos em Mineração de Dados
Tópicos em Mineração de Dados Descoberta de agrupamentos Método k-médias 1. Introdução A descoberta de agrupamentos é uma tarefa descritiva que procura agrupar dados utilizando a similaridade dos valores
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
Leia mais1. Conceitos básicos dos Sistemas Auto-organizáveis. Os sistemas auto-organizáveis estão relacionados com aprendizagem nãosupervisionada.
Redes Neurais Sistemas Auto-Organizáveis. Conceitos básicos dos Sistemas Auto-organizáveis Os sistemas auto-organizáveis estão relacionados com aprendizagem nãosupervisionada. O objetivo de um algoritmo
Leia maisRedes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions
Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a
Leia mais3 FERRAMENTAS UTILIZADAS: REDES NEURAIS E LÓGICA FUZZY
3 FERRAMENTAS UTILIZADAS: REDES NEURAIS E LÓGICA FUZZY 3.1 REDES NEURAIS As redes neurais representam uma tecnologia que têm raízes em muitas disciplinas: neurociência, matemática, estatística, física,
Leia maisBack Propagation. Dicas para o BP
Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem
Leia maisModelos ART Adaptive Ressonance Theory. Germano C. Vasconcelos Centro de Informática - UFPE
Modelos ART Adaptive Ressonance Theory Germano C. Vasconcelos Centro de Informática - UFPE Introdução Capacidade de Generalização Resposta satisfatória ao universo de padrões Problema: Conhecimento modificado
Leia maisConsiderações de Desempenho
Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem
Leia maisMapas Auto Organizáveis SOMs Mapas de Kohonen
Mapas Auto Organizáveis SOMs Mapas de Kohonen PSI 2886 Princípios de Neurocomputação Edição de 2008 1 PSI 5886 Prof. Emilio Self Organizing Maps de Kohonen Estes slides foram usados nas aulas #8 e #9 na
Leia maisRedes Competitivas e de Kohonen
Redes Competitivas e de Kohonen Redes Competitivas Até agora as redes estudadas possuíam muitas saídas ativas, no aprendizagem competitivo somente uma unidade de saída pode estar ativa a cada momento.
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas
Leia mais3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
Leia maisA evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:
Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
Leia maisIntrodução à Mineração de Dados com Aplicações em Ciências Espaciais
Introdução à Mineração de Dados com Aplicações em Ciências Espaciais Escola de Verão do Laboratório Associado de Computação e Matemática Aplicada Rafael Santos Dia 3: 1 /54 Programa Dia 1: Apresentação
Leia maisMAPAS AUTO-ORGANIZÁVEIS PARA MODELAGEM CHUVA-VAZÃO. Farias, C. A. S.; Carneiro, T. C. & Lourenço, A. M. G.
MAPAS AUTO-ORGANIZÁVEIS PARA MODELAGEM CHUVA-VAZÃO Farias, C. A. S.; Carneiro, T. C. & Lourenço, A. M. G. Motivação O crescimento populacional e consequente aumento das demandas; A situação se agrava em
Leia maisMinicurso: Inteligência Artificial Aplicada a Sistemas Elétricos
Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz
Leia maisSCC Capítulo 8 Auto-Organização
Auto-organização PCA Mapas auto-organizáveis SCC-5809 - Capítulo 8 Auto-Organização João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes Neurais
Leia maisMapeamento automático de horizontes e falhas em volumes sísmicos 3D baseado no algoritmo de Gás Neural Evolutivo
Mapeamento automático de horizontes e falhas em volumes sísmicos 3D baseado no algoritmo de Gás Neural Evolutivo Aurélio Moraes Figueiredo, 29 de Junho de 2007 Introdução Para a descoberta de novas jazidas
Leia maisClassificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
Leia maisRedes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco
Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos
Leia maisRedes Neurais. Artificiais. Fabricio Breve Parte 2. 19/04/2018 Fabricio Breve. Bias. Sinais de entrada. Pesos sinápticos.
Redes Neurais Parte 2 Artificiais x 1 w k1 Bias b k +1 +1 x 1 x 2 x 3 x m +1 y 1 y 2 y o Sinais de entrada x 2 x m Fabricio Breve fabricio@rc.unesp.br w k2 w km Pesos sinápticos Σ Junção aditiva v k f(.
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que
Leia maisRede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisHP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.
HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
Leia maisAprendizado de Máquina
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Aprendizado de Máquina Inteligência Artificial Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia maisEstudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial
Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial Renan Bessa 1, Elder dos Santos Teixeira 2, Guilherme Costa Holanda 3, Auzuir Ripardo de Alexandria 4 1 Graduando em
Leia maisTópicos sobre Redes Neurais
Tópicos sobre Redes Neurais -Memórias Matriciais -Modelos Híbridos -Redes de Base Radial(RBF) -Redes Construtivas -Redes Recorrentes Prof João Alberto Fabro IF67D Sistemas Inteligentes 1 Dep de Informática
Leia maisTÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador
Leia maisINF 1771 Inteligência Artificial
Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 18 Aprendizado Não-Supervisionado Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor
Leia maisReconhecimento Digital de Padrões Utilizando Redes Neurais Artificiais. Rousemberg Pereira da Silva. Uberlândia, Dezembro/2002.
Reconhecimento Digital de Padrões Utilizando Redes Neurais Artificiais Rousemberg Pereira da Silva Uberlândia, Dezembro/2002. Reconhecimento Digital de Padrões Utilizando Redes Neurais Artificiais Rousemberg
Leia maisModelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:
Back Propagation Fatores importantes para a modelagem da Rede Neural: Seleção de variáveis; veis; Limpeza dos dados; Representação das variáveis veis de entrada e saída; Normalização; Buscando melhor Generalização
Leia maisUso da Rede Neural Artificial Self Organizing Maps (SOM) na clusterização de dados meteorológicos
Trabalho apresentado no CMAC-Sul, Curitiba-PR, 2014. Uso da Rede Neural Artificial Self Organizing Maps (SOM) na clusterização de dados meteorológicos Jorge V. R. Bonato, Paulo H. Siqueira Programa de
Leia maisRedes Neurais (Inteligência Artificial)
Redes Neurais (Inteligência Artificial) Aula 16 Aprendizado Não-Supervisionado Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest
Leia maisRegra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem
Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja
Leia maisAula 8 - Reconhecimento e Interpretação. Prof. Adilson Gonzaga
Aula 8 - Reconhecimento e Interpretação Prof. Adilson Gonzaga Elementos de Visão Computacional: Visão Computacional Processamento de Baio Nível Processamento de Nível Intermediário Processamento de Alto
Leia maisRede Perceptron. Capítulo 3
Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta
Leia mais5 Redes Neurais Artificiais
5 Redes Neurais Artificiais 5.1. Introdução A motivação original desta metodologia 1 foi a tentativa de modelar a rede de neurônios humanos visando compreender o funcionamento do cérebro. Portanto, como
Leia maisSistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy
Redes Neurais Sistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy Um Sistema de Inferência Fuzzy (SIF) é um tipo especial de Sistema Baseado em Conhecimento (SBC).
Leia maisRedes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com
Leia maisHP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.
HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)
Leia maisRedes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas
Redes Neurais Dalma M. Falcão falcao@nacad.ufr.br http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisAgrupamento de Dados a partir de Mapas Auto-Organizáveis na Ferramenta YADMT. Thiago Magalhães Faino
UNIOESTE Universidade Estadual do Oeste do Paraná CENTRO DE CIÊNCIAS EXATAS E TECNOLÓGICAS Colegiado de Ciência da Computação Curso de Bacharelado em Ciência da Computação Agrupamento de Dados a partir
Leia mais3 Agrupamento de dados e o algoritmo GNG
25 3 Agrupamento de dados e o algoritmo GNG Processos de agrupamento de dados são utilizados para categorizar uma massa de dados em um número desejado de grupos, com a restrição de que os componentes de
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
Leia maisAplicações 8/10/2007. Redes Auto-Organizáveis (Self-Organizing) Modelos(1) Modelos(2) Kohonen(SOM) Modelos(3) Modelos(4) Treinamento
Modelos(1) Modelos(2) Kohonen(SOM) - 1989 Kohonen(SOM) - Arquitetura Baseadas no mapeamento realizado pelo Cérebro Pode ter várias camadas, onde o processo de auto-organização segue de camada em camada
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.1. Introdução às Redes Neurais Artificiais (RNAs) 2.1.1. Motivação
Leia mais4 Rastreamento de horizontes e falhas
36 4 Rastreamento de horizontes e falhas Os horizontes sísmicos e as falhas sísmicas são dois eventos sísmicos importantes, sendo relevante encontrar sua localização ao interpretar dados sísmicos. Uma
Leia maisAlgoritmos de Aprendizado
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron
Leia maisAprendizagem por treinamento de redes de aproximação
Aprendizagem por treinamento de redes de Marco H. Terra Departamento de Eng. Elétrica - EESC - USP SEL 0362 - Inteligência Artificial 1 Introdução Neste capítulo, serão apresentados conceitos sobre redes
Leia maisProcessamento de Malhas Poligonais
Processamento de Malhas Poligonais Tópicos Avançados em Computação Visual e Interfaces I Prof.: Marcos Lage www.ic.uff.br/~mlage mlage@ic.uff.br Conteúdo: Notas de Aula : Definições Matemáticas 06/09/2015
Leia maisNEUROCOMPUTAÇÃO E SIG NO SUPORTE AO PLANEJAMENTO URBANO. Marcos Aurélio Santos da Silva 1
NEUROCOMPUTAÇÃO E SIG NO SUPORTE AO PLANEJAMENTO URBANO Marcos Aurélio Santos da Silva 1 Palavras-chave: Redes Neurais Artificiais, Análise Espacial de Área, Visualização de dados, Análise de Agrupamentos
Leia maisAprendizado de Máquina
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Aprendizado de Máquina Inteligência Artificial Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia maisAprendizado por Reforço usando Aproximação
Aprendizado por Reforço usando Aproximação de Funções Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aproximação de Funções 2. Do the evolution 1 Aproximação de Funções Função Utilidade
Leia maisVariações do BP. Variações do BP. Variações do BP. Taxa de Aprendizado Adaptativa. Taxa de Aprendizado Adaptativa
A principal crítica ao algoritmo Back Propagation é o longo tempo de treinamento proposta de variações simples para acelerar o processo de aprendizado Taxa de Aprendizado Adaptativa Inicia-se com um valor
Leia maisRedes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 13 K-Nearest Neighbor (KNN) 2016.1 Prof. Augusto Baffa Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor
Leia maisBanco de dados Brasil
Banco de dados Brasil Elemento de resolução: célula de 100x100m Conteúdo: linhas de transmissão, casas, quadras, distritos, municípios, estados, país Quais distritos são cortados pela linha de transmissão
Leia maisPerceptrons. Introdução
Perceptrons Introdução No final da década de 1950, Rosenblatt na Universidade de Cornell, criou uma genuína rede de múltiplos neurônios do tipo discriminadores lineares e chamou esta rede de perceptron.
Leia maisC o m p u t a ç ã o M ó v e l. André Siqueira Ruela
C o m p u t a ç ã o M ó v e l André Siqueira Ruela Sumário Introdução Estrutura Reconhecimento Normalização Cálculo da Saída Aprendizado Implementação Introdução Self Organizing Maps (SOM) são também conhecidos
Leia maisSISTEMAS DE INFORMAÇÕES GEOGRÁFICAS Aula 2. SIG- Eng. Cartográfica Prof. Luciene Delazari
SISTEMAS DE INFORMAÇÕES GEOGRÁFICAS Aula 2 SIG- Eng. Cartográfica Prof. Luciene Delazari Descrição de uma realidade com algum propósito Modelo MODELAR Termo geral para denotar o processo de construir representações
Leia maisRealimentação de Relevância
Wendel Melo Faculdade de Computação Universidade Federal de Uberlândia Recuperação da Informação Ciclo de realimentação onde uma consulta q recebida do usuário é transformada em uma consulta modificada
Leia maisAprendizado de Máquina
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Aprendizado de Máquina Inteligência Artificial Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia maisProcessamento digital de imagens
Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 6 de outubro de 2016 Segmentação de imagens A segmentação
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação (Machine Learning) Aula 07 Classificação com o algoritmo knn Max Pereira Classificação com o algoritmo k-nearest Neighbors (knn) Como os filmes são categorizados em gêneros? O que
Leia maisRedes Neurais Convolucionais
André Gustavo Hochuli Orientadores: Dr. Luiz E. S. Oliveira/Dr. Alceu Britto Programa de Pós-Graduação em Informática Departamento de Informática UFPR Neurônio Artificial Redes Neurais - Vetor de Caracteristícas
Leia maisSEL-0339 Introdução à Visão Computacional. Aula 7 Reconhecimento de Objetos
Departamento de Engenharia Elétrica - EESC-USP SEL-0339 Introdução à Visão Computacional Aula 7 Reconhecimento de Objetos Prof. Dr. Marcelo Andrade da Costa Vieira Prof. Dr. Adilson Gonzaga mvieira@sc.usp.br
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
PERCEPTRON MULTICAMADAS: TÉCNICAS DE VALIDAÇÃO Prof. Dr. André A. P. Biscaro 2º Semestre de 2016 UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT Aspectos de seleção topológica de redes PMC A especificação
Leia maisUniversidade de São Paulo Instituto de Ciências Matemáticas e de Computação
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Conceitos básicos Classificação não-supervisionada:
Leia maisF- Classificação. Banda A
F- Classificação Classificação Digital é associar determinado pixel a determinada categoria por meio de critérios estatísticos Banda B? da d b dc Espaço dos Atributos Classes Banda A Classificação: ordenar,
Leia maisClassificação de Elementos no Ambiente de Navegação Robótica Utilizando Redes de Kohonen
Classificação de Elementos no Ambiente de Navegação Robótica Utilizando Redes de Kohonen Felipe A. PINAGÉ (1); Eulanda M. dos SANTOS (2); José P. QUEIROZ-NETO (3) (1) Universidade Federal do Amazonas -
Leia maisRedes Neurais Convolucionais
André Gustavo Hochuli Orientador: Prof. Dr. Luiz Eduardo Soares de Oliveira Programa de Pós-Graduação em Informática Departamento de Informática UFPR http://www.inf.ufpr.br/aghochuli/caffe/ Redes Neurais
Leia maisEstrutura comum dos AEs Seleção
Estrutura comum dos AEs Seleção Todos os AEs mantém uma população de tamanho m por: Utilizando uma população como fonte de pais para produzir n descendentes Reduzindo o tamanho da população expandida de
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem
Leia mais