Ambiente MATLAB. Redes Neurais. Tela Principal do MATLAB MATLAB 6.5. MATLAB MATrix LABoratory. Programação baseada em Matrizes

Documentos relacionados
Redes Neurais no MATLAB 6.1

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Relatório de uma Aplicação de Redes Neurais

Matlab - Neural Networw Toolbox. Ana Lívia Soares Silva de Almeida

Introdução ao MATLAB 6.1

Curso de Redes Neurais utilizando o MATLAB

Inteligência Artificial. Redes Neurais Artificiais

Previsão de consumos a curto prazo

Redes neurais artificiais

JAI 6 - Deep Learning Teoria e Prática

Redes Neurais MLP: Exemplos e Características

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Inteligência Artificial Redes Neurais

INF 1771 Inteligência Artificial

Redes Neurais Artificial. Prática. Inteligência Artificial

João Paulo Teixeira Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança

Redes Neurais Artificiais

Reconhecimento de Padrões/Objetos

Décimo Quinto Encontro Regional Ibero-americano do CIGRÉ Foz do Iguaçu-PR, Brasil 19 a 23 de maio de 2013

Redes Neurais e Sistemas Fuzzy

Redes Neurais Artificiais. Professor: Juan Moises Villanueva

Multiple Layer Perceptron

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

Redes Neurais e Sistemas Fuzzy

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas

3 Redes Neurais Artificiais

Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela

Redes Neurais Artificiais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Introdução às Redes Neurais Artificiais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Echo State Networks. Fabricio Breve João Bertini

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Unidade 08 MATLAB Neural Network Toolkit

Trabalho de IA - Redes Neurais: Multilayer Perceptron e16 Learning de março Vector de 2015 Quantization 1 / 28

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Introdução às Redes Neurais Artificiais

INTELIGÊNCIA ARTIFICIAL

Perceptron de Múltiplas Camadas e Backpropagation

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

CENTRO UNIVERSITÁRIO DO LESTE DE MINAS GERAIS UnilesteMG Disciplina: Introdução à Inteligência Artificial Curso: Sistemas de Informação

Identificação de Caracteres com Rede Neuronal Artificial com Interface Gráfica

Análise da Complexidade de Tempo e Espaço em Algoritmos para Classificação de Padrões em sinais de ECG

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Aplicação de Redes Neurais no reconhecimento de letras em placas de veículos automotores brasileiros

3 Modelos Comparativos: Teoria e Metodologia

2. Redes Neurais Artificiais

Aplicação de Redes Neuronais Artificiais no Comportamento da Precipitação em Portugal Continental.

3 Redes Neurais Introdução

Relatório da Aula Prática sobre Redes Neurais Artificiais

6 Aplicação da Metodologia Proposta

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Rede Neuronal Artificial para o Reconhecimento de Caracteres com Interface Gráfica

Redes Neurais Artificiais

Redes Neurais Artificiais - Introdução. Visão Computacional

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais

MLP (Multi Layer Perceptron)

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Tópicos sobre Redes Neurais

p TPP = (6.1) e a rajada de perda de pacote é medida pela Comprimento Médio da Rajada (CMR ) que é dada por

3 INTELIGÊNCIA COMPUTACIONAL (IC)

Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0. Classificação. David Menotti.

Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0. Classificação. David Menotti.

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

GUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS

Inteligência Computacional Aula 2 - Introdução ao MatLab Graduação /2

Introdução ao software MatLab

Mineração de Dados em Biologia Molecular

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Inteligência Artificial

EXPLORANDO OS MECANISMOS DO PERCEPTRON E DO BACK PROPAGATION

Aprendizagem de Máquina

Projeto de Redes Neurais e MATLAB

Sistemas Inteligentes

2. Redes Neurais Artificiais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Rede Neural Artificial Aplicada em um Reconhecimento Automático de Voz Independentemente do Locutor

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS

Redes Neurais aplicadas na predição de valores genéticos

Optimização da aplicação NNIG-Nets MLP e desenvolvimento da aplicação NNIG-Nets RBF

2. Redes Neurais Artificiais

Estudo Comparativo entre as Redes Neurais Artificiais MLP e RBF para Previsão de Cheias em Curto Prazo

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Classificação Linear. André Tavares da Silva.

Redes Neurais Convolucionais

scikit-learn: Aprendizado de máquina 101 com Python

Redes Neuronais. Apontamentos Aulas TP de Inteligência Artificial LEI/ISEP Introdução às Redes Neuronais. Friday, April 5, 13

PREVISÃO DE CASOS DE DENGUE EM ITAJAÍ SC UTILIZANDO REDES NEURAIS ARTIFICIAIS COM SAÍDAS RECORRENTES ÀS ENTRADAS

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Transcrição:

Redes Neurais MATLAB 6.5 Ambiente MATLAB MATLAB MATrix LABoratory Programação baseada em Matrizes Vetores e escalares também podem ser considerados matrizes, xn, Nx, x Tela Principal do MATLAB Tela Principal do MATLAB Janela de Comando

Tela Principal do MATLAB Tela Principal do MATLAB Launch Pad Janela de Histórico Tela Principal do MATLAB Matrizes no MATLAB Quadro Melancholia I, do artista alemão e matemático amador Albrecht Dürer 2

Quadrado Mágico Definindo uma Matriz Explicitamente Elementos de uma linha são separados por espaços ou vírgulas. O final de cada linha é indicado por um ponto-e-vírgula vírgula. A lista de elementos é delimitada por colchetes [ ]. Definindo uma Matriz Explicitamente No caso do quadrado mágico: Redes Neurais no MATLAB Duas formas de utilização: >> A = [6 3 2 3; 5 8; 9 6 7 2; 4 5 4 ] A = 6 3 2 3 5 8 9 6 7 2 4 5 4 Linhas de comando e m-files Interface gráfica (NNTool) 3

Redes Neurais no MATLAB Passos para a Criação de uma RN Duas formas de utilização: Linhas de comando e m-filesm Interface gráfica (NNTool) O Problema do OU Exclusivo Passos para a Criação de uma RN x 2 x X X 2 valor 4

Definindo os Padrões Passos para a Criação de uma RN X X 2 valor Vetor de entrada: P = P = [ ; ] Vetor de saída: T = [ ] Inicializando a Rede Neural Funções de Ativação net = newff( Redes Feed-forward: [min(p')' max(p')'], [N_hidden ], {'tansig' 'logsig'}, 'traingd'); Função newff (limites dos padrões de entrada) (número de neurônios de cada camada) (função de ativação de cada camada) (algoritmo de treinamento) purelin logsig tansig satlin(s) Linear Sigmóide Tangente hiperbólica Linear com saturação 5

Algoritmos de Treinamento Passos para a Criação de uma RN traingd traingdm traingda traingdx trainlm trainrp Gradient descent backpropagation Gradient descent backpropagation com momentum Gradient descent backpropagation com taxa adaptativa Gradient descent backpropagation com momentum e taxa adaptativa Levenberg-Marquardt backpropagation (default) Resilient backpropagation (Rprop) Definindo parâmetros de treinamento Passos para a Criação de uma RN net.trainparam.epochs = ; net.trainparam.goal = e-8; net.trainparam.lr =.; net.trainparam.show = 25; net.trainparam.mc =.9; net.trainparam.lr_inc =.5; net.trainparam.lr_dec =.7; net.trainparam.max_perf_inc =.4; Número de epochs Erro final desejado Taxa de aprendizado Atualização da tela (epochs) Taxa de momentum Taxa de incremento da l.r. Taxa de decremento da l.r. Incremento máximo do erro 6

Treinando a Rede Neural Passos para a Criação de uma RN net = train(net, P, T); Testando a Rede Neural M-file desenvolvida para o XOR C = sim(net, P); TESTE TESTE : Rede neural com apenas uma camada de processadores (Percetron básico); xor.m 7

M-file desenvolvida para o XOR Validação Cruzada TESTE 2: 2 Rede neural com uma camada escondida de processadores (Multi-Layer Perceptron); Dividir os padrões disponíveis em três conjuntos: xor2.m xor.m treinamento (7%): matrizes Ptrain, Ttrain validação (2%): matrizes Pvalid, Tvalid teste (%): matrizes Ptest, Ttest Validação Cruzada % Inicializa a rede neural net = newff([min(p')' max(p')'],[ ],{'tansig' 'logsig'},'traingd'); net.trainparam.goal = e-8; % Treina a rede iterativamente, de 5 em 5 epochs, % até o total de epochs, calculando os erros Nepoch = 5; NN = 2; mape_min = e38; for i = :NN, net.trainparam.epochs = Nepoch; net = train(net, Ptrain, Ttrain); Ctrain = sim(net, Ptrain); Cvalid = sim(net, Pvalid); % encontra o número de epochs ótimo if (mape_valid(i) < mape_min) mape_min = mape_valid(i); net_opt = net; Noptim = Nepoch * i; end end % Melhor rede: net = net_opt; Validação Cruzada % Testa a rede com os 3 conjuntos de padrões Ctrain = sim(net, Ptrain); Cvalid = sim(net, Pvalid); Ctest = sim(net, Ptest); % Calcula os erros MAPE para os padrões de treinamento e validação mape_train(i) = *mean(abs((ttrain-ctrain)./ttrain)) mape_valid(i) = *mean(abs((tvalid-cvalid)./tvalid)) 8

Redes Neurais no MATLAB Interface Gráfica NNTool Duas formas de utilização: Linhas de comando, e m-files Interface gráfica (NNTool) Passos para a Criação de uma RN Passos para a Criação de uma RN Criar a rede Criar a rede 9

Definindo os Padrões Definindo os Padrões Definindo os Padrões Definindo os Padrões

Passos para a Criação de uma RN Criando a Rede Neural Criar a rede Criando a Rede Neural Visualizando a Rede Neural

Visualizando a Rede Neural Passos para a Criação de uma RN Criar a rede Inicializando a Rede Neural Inicializando a Rede Neural 2

Inicializando a Rede Neural Passos para a Criação de uma RN Criar a rede Definindo parâmetros de treinamento Definindo parâmetros de treinamento 3

Definindo parâmetros de treinamento Passos para a Criação de uma RN Criar a rede Treinando a Rede Neural Treinando a Rede Neural 4

Passos para a Criação de uma RN Testando a Rede Neural Criar a rede Testando a Rede Neural Testando a Rede Neural 5

Testando a Rede Neural Testando a Rede Neural Testando a Rede Neural Exportando os Dados 6

Exportando os Dados O Problema do OU Exclusivo x 2 x X X 2 valor Rede Neural com Camada Escondida Rede Neural com Camada Escondida 7

Rede Neural com Camada Escondida Rede Neural com Camada Escondida Rede Neural com Camada Escondida Rede Neural com Camada Escondida 8

Reconhecimento de Dígitos Reconhecimento de Dígitos Reconhecimento de Dígitos Reconhecimento de Dígitos 9

Definição dos Padrões de Entrada Definição dos Padrões de Entrada Definição dos Padrões de Entrada Cada dígito (padrão): 2 bits Número de padrões: dígitos Representação: Matriz 2 x Cada coluna representa um dígito Cada linha representa um bit Cada bit está associado com um neurônio de entrada Definição dos Padrões de Entrada 2

Definição dos Padrões de Saída Definição dos Padrões de Saída Conversão dos Arquivos Importação dos Dados p/ NNTool >> load digitos.txt >> save digitos >> load saidas.txt >> save saidas 2

Importação dos Dados p/ NNTool Importação dos Dados p/ NNTool Definição das Redes Definição das Redes Network name: network5 Tipo: feed-forward backprop Input Ranges: Get from input Training Function: TRAINGDM Number of layers: 2 Layer : 5 neurons TANSIG Layer 2: 2 neurons PURELIN Network name: network25 Tipo: feed-forward backprop Input Ranges: Get from input Training Function: TRAINGDM Number of layers: 2 Layer : 25 neurons TANSIG Layer 2: 2 neurons PURELIN 22

Definição das Redes Treinamento das Redes Network name: network35 Tipo: feed-forward backprop Input Ranges: Get from input Training Function: TRAINGDM Number of layers: 2 Layer : 35 neurons TANSIG Layer 2: 2 neurons PURELIN Epochs: Goal (MSE):.5e-3 Learning Rate (lr( lr):. Momentum:. Treinamento das Redes Treinamento das Redes Epochs: Goal (MSE):.5e-3 Learning Rate (lr( lr):.4 Momentum:. Epochs: Goal (MSE):.5e-3 Learning Rate (lr( lr):.9 Momentum:. 23

Treinamento das Redes Treinamento das Redes Epochs: Goal (MSE):.5e-3 Learning Rate (lr( lr):. Momentum:.4 Epochs: Goal (MSE):.5e-3 Learning Rate (lr( lr):.9 Momentum:.4 Teste das Redes bit errado 2 bits errados 3 bits errados 24