2. Redes Neurais Artificiais

Documentos relacionados
Redes Neurais Artificial. Prática. Inteligência Artificial

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais

JAI 6 - Deep Learning Teoria e Prática

Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:

2. Redes Neurais Artificiais

Descoberta de Conhecimento em Bancos de Dados - KDD

2. Redes Neurais Artificiais

Créditos. SCC0173 Mineração de Dados Biológicos. Aula de Hoje. Desempenho de Classificação. Classificação IV: Avaliação de Classificadores

2. Redes Neurais Artificiais

Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si

Redes neurais artificiais

Considerações de Desempenho

3 Redes Neurais Artificiais

Back Propagation. Dicas para o BP

DCBD. Avaliação de modelos. Métricas para avaliação de desempenho. Avaliação de modelos. Métricas para avaliação de desempenho...

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Mineração de Dados em Biologia Molecular

Tópicos sobre Redes Neurais

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA

Redes Neurais Artificiais

Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Redes Neurais Artificiais. Profa. Teresa Ludermir Sistemas Inteligentes

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Aprendizagem de Máquina - 2. Prof. Júlio Cesar Nievola PPGIa - PUCPR

Avaliando Hipóteses. George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE

SNP33D90 REDES NEURAIS ARTIFICIAIS

SCC Capítulo 10 Métodos de Amostragem e Avaliação de Algoritmos

Métodos de reamostragem

5 RNA para Diagnóstico de Falhas em Turbinas a Gás

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Aplicações da RMC. Avaliação de Algoritmos. Tratamento nos dados 27/8/2010. Roseli A F Romero SCC 5809 REDES NEURAIS

Mapas Auto-Organizáveis de Kohonen SOM

Redes Neurais MLP: Exemplos e Características

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

Redes Neurais e Sistemas Fuzzy

2. Redes Neurais Artificiais

Mapas Auto-Organizáveis de Kohonen SOM

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Aprendizagem de Máquina

Predição de propriedades termodinâmicas de equilíbrio líquido-vapor com uso de redes neurais

Redes Neurais Artificiais

4 Redes Neurais Artificiais

Redes Neurais não Supervisionadas: SOM

Redes Neurais Artificiais

Trabalho de IA - Redes Neurais: Multilayer Perceptron e16 Learning de março Vector de 2015 Quantization 1 / 28

Self Organizing Maps - Redes de Kohonen

Classificação Linear. André Tavares da Silva.

Aula 9. Prof. Adilson Gonzaga

Roteiro. PCC142 / BCC444 - Mineração de Dados Avaliação de Classicadores. Estimativa da Acurácia. Introdução. Estimativa da Acurácia

Modelo Híbrido SOM-ANN/BP para a Previsão de Índices da Bolsa de Valores NYSE através de Redes Neurais Artificiais

Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995))

Boas Maneiras em Aprendizado de Máquinas

VRS usando redes neurais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Paradigmas de Aprendizagem

SCC Capítulo 10 Métodos de Amostragem e Avaliação de Algoritmos

Projeto da Disciplina

Unidade 08 MATLAB Neural Network Toolkit

5 Redes Neurais Artificiais

Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

Fundamentos de Inteligência Artificial [5COP099]

SUPPORT VECTOR MACHINE - SVM

Rede RBF (Radial Basis Function)

Métodos de Amostragem. Métodos de Amostragem e Avaliação de Algoritmos. Métodos de Amostragem. Métodos de Amostragem. Métodos de Amostragem

Aula 7 RNA Redes Auto-Organizáveis de Kohonen

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

3. Resolução de problemas por meio de busca

MAPAS AUTO-ORGANIZÁVEIS PARA MODELAGEM CHUVA-VAZÃO. Farias, C. A. S.; Carneiro, T. C. & Lourenço, A. M. G.

1. Computação Evolutiva

UNIVERSIDADE DE SÃO PAULO ESCOLA POLITÉCNICA DEPARTAMENTO DE ENGENHARIA MECÂNICA USO DE REDES NEURAIS PARA PREVISÃO DO CONSUMO DE ENERGIA EM HOTÉIS

Metodologia Aplicada a Computação.

Reconhecimento de Padrões/Objetos

Rede Perceptron. Capítulo 3

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado em IA. Prof. Carlos H. C. Ribeiro ITA Divisão de Ciência da Computação

Inteligência Artificial Redes Neurais Artificiais

Aprendizagem por treinamento de redes de aproximação

Perceptron de Múltiplas Camadas e Backpropagation

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

Combinação de Classificadores (fusão)

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Relatório Técnico - SVM na base Breast Cancer Wisconsin

Protótipo de Software para Reconhecimento de Impressões Digitais

Redes Neurais Artificiais. Everton Gago

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Transcrição:

Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1

2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas Auto-Organizáveis de Kohonen 2.4.3. Processamento Temporal 2.4.3.1. Rede Alimentada Adiante Focada Atrasada no Tempo (TLFN Focada) 2.4.3.2. Arquiteturas Recorrentes 2.4.3.3. Modelo de Hopfield 2

Projeto de sistemas convencionais Formular modelo matemático a partir de observações do ambiente Validar o modelo com dados reais Construir o sistema utilizando o modelo Projeto de Redes Neurais Baseado apenas nos dados» Conhecimento pode ser inserido 3

Selecionar arquitetura adequada para a rede Modelo Número de camadas Número de nerônios por camada Topologia» Connectividade» Sentido 4

Escolha do modelo Características dos dados e da aplicação direcionam a escolha do modelo» Existência de saídas desejadas ou sinais de avaliação da qualidade da solução» Necessidade de recorrência Série temporal» Tempo de resposta» Taxas de erro/acerto 5

Camada de entrada Número de elementos da camada de entrada igual ao de elementos do vetor de entrada Pré-processamento pode aumentar ou diminuir número de elementos do vetor de entrada» Seleção de Atributos Camada de saída Um neurônio por classe, valor ou parâmetro 6

Conjuntos de dados Tamanho depende da complexidade dos dados» Quanto maior a complexidade, maior a quantidade necessária Devem ser representativos» Pré-processamento dos dados Dados numéricos Presença de valores em todos os campos Balanceamento entre classes 7

Pré-processamento de dados Conversão de valores simbólicos para valores numéricos» Quando os valores apresentam ordenação Codificar cada valor por um número inteiro ou real» Quando os valores não apresentam ordenação Vetores de valores binários, cada um com um elemento igual a 1 e os demais iguais a 0 Assim, a distância entre os dados fica igual Tamanho do vetor igual ao número de valores diferentes 8

Pré-processamento de dados Estimativa de valores ausentes» Média de todos os valores do mesmo campo» Média entre anterior e posterior» Criação de um novo valor Normalização de valores numéricos» Normalizar cada campo individualmente» Assegurar que todos os valores de um dado campo estejam dentro de um intervalo (Ex. [0,0;...;1,0]) 9

Conjuntos de dados São geralmente divididos em» (Sub)conjunto de treinamento Dados para o treinamento da rede» (Sub)conjunto de teste Uma vez selecionados os parâmetros, resultados de teste fornecem um indicativo do desempenho da rede para novos dados generalização» (Sub)conjunto de validação Nem sempre é utilizado Os dados são divididos aleatoriamente entre os subconjuntos Balanceamento 10

Conjuntos de dados Conjunto de validação» Resultados de validação devem ser utilizados para seleção dos parâmetros (durante o treinamento) Envolve Tempo de procesamento Taxas de erro, rejeição e acerto Natureza dos erros 11

Conjuntos de dados Funções de erro» Soma dos erros quadráticos ou SSE (do inglês, Sum of Squared Error)» Erro quadrático médio ou MSE (do inglês, Mean Squared Error)» Erro médio relativo ou MRE (do inglês Mean Relative Error)» Raiz quadrada do erro médio ou RMS (do inglês Root Mean Squared Error)» RMS normalizado, também conhecido por erro de previsão normalizado ou NPE (Normalized Prediction Error) 12

Conjuntos de dados Funções de erro para problemas de classificação» As funções de erro anteriores geralmente não são medidas adequadas de desempenho em problemas de classificação» Desempenho da rede deve ser medido pelo número de padrões corretamente / incorretamente classificados Taxa de erro de um classificador ou taxa de erro» Outras medidas, como especificidade, sensibilidade, curva ROC, podem ser também utilizadas, dependendo da aplicação 13

Inicialização dos parâmetros a serem otimizados Geralmente, é aleatória» Necessidade de repetir o treinamento da RNA 14

Avaliação Existem diversos métodos para a avaliação da RNA» Holdout Divide-se o conjunto da dados em subconjuntos com tamanhos dados por porcentagens do tamanho do conjunto original Subconjunto de treinamento (Ex.: 50% dos dados) Subconjunto de validação (Ex.: 25% dos dados) nem sempre utilizado Subconjunto de teste (Ex.: 25% dos dados) 15

Avaliação Métodos para a avaliação da RNA» Cross-Validation No r-fold cross-validation, os exemplos são aleatoriamente divididos em r partiçoes de tamanho aproximadamente igual a N / r padrões Os padrões em (r -1) partições são utilizados para treinamento, enquanto que a partição restante é utilizada para teste O treinamento é repetido r vezes cada vez considerando uma partição diferente para teste O erro é calculado como a média dos erros para cada treinamento 16

Fases de um projeto Fase 1: Análise dos requisitos Fase 2: Escolha de um modelo de RNA Fase 3: Escolha dos parâmetros do modelo de RNA Fase 4: Pré-processamento dos dados Fase 5: Treinamento Fase 6: Testes Fase 7: Análise dos resultados 17

Comentários Referências Haykin, S. S.. Redes neurais: princípios e prática. 2ª ed., Bookman, 2001.» Capítulo 4 18