out II - Algoritmo Back-Propagation II - Algoritmo BackPropagation II - Algoritmo Back-Propagation Modelo de Rede Neural com Multiplas Camadas

Documentos relacionados
SCE REDES NEURAIS Redes Neurais Multi-Camadas Parte 2

Fundamentos de Inteligência Artificial [5COP099]

SCE 5809 REDES NEURAIS

Redes Neurais e Sistemas Fuzzy

Transformação dos dados. Analise de Componentes Principais - PCA

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

APRENDIZADO EM MODELOS CONEXIONISTAS

2. Redes Neurais Artificiais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

1ª PROVA ICIN 1º/2015

3 Redes Neurais Introdução

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

PROTOCOLO PARA ESTIMAR ERROS DE DISCRETIZAÇÃO EM CFD: VERSÃO 1.1. Carlos Henrique Marchi. Curitiba, UFPR, setembro de 2005.

RESOLUÇÃO - 1ª PROVA ICIN 2º/2012

INF 1771 Inteligência Artificial

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 20 - Backpropagation

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Redes Neurais Artificiais

Redes Neurais. Redes Neurais Recorrentes A Rede de Hopfield. Prof. Paulo Martins Engel. Memória associativa recorrente

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Classificação Linear. André Tavares da Silva.

1 LIMITES FUNDAMENTAIS NA TEORIA DA INFORMAÇÃO

Rememorando. Situação-problema 5. Teorema do Limite Central. Estatística II. Aula II

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Estudo da influência dos índices de severidade na segurança de um Sistema Eléctrico de Energia

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

RESISTÊNCIA DOS MATERIAIS 2 Marcel Merlin dos Santos

VIGAS. Figura 1. Graus de liberdade de uma viga no plano

Exercícios DISCURSIVOS -3

Reconhecimento de Padrões/Objetos

SCC Capítulo 3 Aprendizado

ESCOAMENTO ANUAL 1 DISTRIBUIÇÃO ESTATÍSTICA

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

SCC Capítulo 4 Perceptron de Camada Única

Redes Neurais Artificial

Multiple Layer Perceptron

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Mineração de Dados em Biologia Molecular

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Um Modelo Híbrido para Previsão de Produção de Petróleo

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

Sistemas Inteligentes de Inferência

AA-220 AERODINÂMICA NÃO ESTACIONÁRIA

Parte 7. Redes Neurais INTRODUÇÃO

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

2. Redes Neurais Artificiais

Fundamentos de Telecomunicações 2004/05

Sistemas Inteligentes

Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS

Aula # 8 Vibrações em Sistemas Contínuos Modelo de Segunda Ordem

Outras Técnicas que Utilizam o Escore de Propensão

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Introdução à Teoria da Informação: Codificação de Fonte

3 Redes Neurais Artificiais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Aprendizagem de Dados Simbólicos e/ou Numéricos. Francisco Carvalho

3 Propagação em ambientes abertos na faixa GHz

FUNDAMENTOS DE SISTEMAS LINEARES PARTE 1

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Modelos para Regressão. Modelos lineares. Exemplo. Método de regressão linear

Programação Paralela e Distribuída 2010/11. Métricas de Desempenho. Ricardo Rocha DCC-FCUP

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Cap. 6. Definição e métodos de resolução do problema de valores de fronteira

X Congresso Brasileiro de Engenharia Química Iniciação Científica

Estática dos Fluidos. Prof. Dr. Marco Donisete de Campos

MULTI-LAYER PERCEPTRON

Estruturas de Betão Armado II 17 Pré-Esforço Perdas

5 Ferramentas de analise

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador.

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

Redes Neurais MLP: Exemplos e Características

Capítulo 7. Mapas Auto-Organizados de Kohonen - SOM

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

JAI 6 - Deep Learning Teoria e Prática

Algoritmos genéticos: alguns experimentos com os operadores de cruzamento ( Crossover ) para o problema do caixeiro viajante assimétrico

Noções de Testes de Hipóteses

2 Modelagem da casca cilíndrica

Introdução às Redes Neurais Artificiais

Redes Neurais Artificiais

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

FICHA de AVALIAÇÃO de MATEMÁTICA A 12.º Ano de escolaridade Versão.4

Redes Neurais Artificiais. Professor: Juan Moises Villanueva

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

ONS - Rua da Quitanda, o. andar - Centro - CEP: Rio de Janeiro - RJ - Telefone : (21)

A IMAGEM ENTROPIA-COERÊNCIA NA DETECÇÃO DE VARIAÇÕES ENTRE IMAGENS SAR RAFAEL ZANDONÁ SCHNEIDER DAVID FERNANDES

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Transcrição:

Modelo de Rede Neural com Multilas Camadas SCE 5809 REDES NEURAIS REDE NEURAL DO TIPO MULTI- CAMADAS Profa Inut First Hidden Second Roseli Hidden Romero Outut II - Algoritmo Bac-Proagation Out(x) = g( W g( i w i x i ) ) Isto é uma função não-linear de uma combinação linear de funções não lineares de combinações lineares das entradas II - Algoritmo BacProagation OBJETIVO Encontrar um conunto de esos {W },{w }, ara MINIMIZAR I (y i - Out(x i ) ) 2 elo metodo do gradiente descent OBS: Convergência ara um MINIMO global não é garantida Na rática: não é roblema!!! δ II - Algoritmo Bac-Proagation = ηδ Se o neurônio está na camada de saída = ( y out Se o neurônio está na camada oculta ) f '( net out ) δ = f '( net ) δ w net = w out MULTI-LAYER PERCEPTRON Redes de aenas uma camada só reresentam funções linearmente searáveis Redes de múltilas camadas solucionam essa restrição O desenvolvimento do algoritmo Bac-Proagation foi um dos motivos ara o ressurgimento da área de redes neurais em 1986 or Rumelhart et 1

2

ALGORITMO Este rocedimento de arendizado é reetido diversas vezes, até que ara todos rocessadores de camada de saída e ara todos adrões de treinamento, o erro sea menor do que o esecificado ALGORITMO Inicialização: esos iniciados com valores aleatórios e equenos ([-1,1]) Treinamento Reita Considere um novo adrão de entradax i e seu resectivo vetor de saída t i deseado do con de treinamento; Reita - Alica-se o mesmo ar (x i t i ) - calcule se as saídas dos rocessadores, começando da rimeira camada escondida até a camada de saída; - calcula-se o erro na camada de saída - atualiza os esos de cada rocessador, começando ela camada de saída, até a camada de entrada; até que erro quadrático médio ara esse adrão, sea <= tolerância até que o erro quadrático médio sea <= tolerância ara todos os adrões de conunto de treinamento RNA ara Comressão de Imagens Padrão JPEG: mais utilizado PCA Clássica: método estatístico multivariado Rede PCA Adatativa: arquitetura de Redes Neurais Artificiais 3

Motivação RNA PCA Adatativa Redução da quantidade de dados armazenadas em sistemas comutacionais Redução da dimensionalidade de imagens que ocuem grande quantidade de memória Obtenção de métodos que atinam altas taxas de comressão não reudiquem a qualidade visual Postulado de Hebb[Hebb-1949]: Quando um axônio da célula A está suficientemente róximo ara excitar uma célula B e reetidamente tenta excitá-la, algum rocesso crescente ou mudanças metabólicas ocorrem em ambas as células Transformando em regras [Sten-73]: - Se dois neurônios ligados or uma sinase são simultaneamente ativados, a intensidade dessa sináse(conexão) é aumentada - Se dois neurônios ligados or uma sinase são ativados assincronamente, a intensidade dessa sináse é diminuída ou até mesmo eliminada RNA PCA Adatativa Rede PCA Adatativa w i Regra de Hebb: ( n ) = ηy ( n ) x ( n ) x 0 x 1 y 0 y 1 Onde η é uma constante ositiva velocde arendizado y (n) é a saída do neurônio no temo n x é -ésimo elemento do vetor de entrada no temo n Regra Anti-Hebbiana [Foldia, 1989] ( n ) = ηy ( n ) x ( n ) Saída : x -1 y m-1 1 y ( n ) = wi ( n )xi ( n ) + ul( n )yl( n ), i= 0 l< Auste dos esos: wi (n) = ηx i (n)y(n) Auste dos esos laterais: u ( n ) = y ( n )y ( n ) l µ l Teorama de Convergência[Sang- 89] Se a matriz de esos sináticos W(n) for associada a valores aleatórios no temo n = 0, então, com robabilidade 1, a regra generalizada de Hebb irá convergir na média, e, no limite, irá se aroximar de uma matriz cuas colunas serão os rimeiros m autovetores da matriz C de covariancia dos vetores de entrada x(n),ordenados or ordem decrescente de autovalor Teorema Portanto, no limite, ode-se escrever: ( n ) 0 w a = 0,1,,m-1 tal que w ( n ) = 1 ara todo Os valores reresentam os autovetores normalizados associados aos m maiores autovalores da matriz C de covariancia dos vetores de entrada x(n), estando esses autovalores ordenados em ordem decrescente 4

Pode-se acelerar a convergência da rede introduzindo um termo momentum β e deixando que os arâmetros de arendizagem e o momentum diminuam com o temo Em [MAO-95], utilizouse: u ( n+ 1) = µ ( n) y y + β ( n) u ( n) l onde η(n + 1) = max(αη(n), 00001), µ(n + 1) = max(αµ(n), 00002), β(n + 1) = max(αβ(n), 00001) e α é o fator de diminuição l l (2) ( n+ 1) = ( n) x y + β ( n) ( n) i η i i (1) Algoritmo PCA Adtativa-[Rubn-89] Inicio 1 Inicialize todos os esos de conexões com equenos valores aleatórios e escolha os valores ara os arâmetros de arendizagemnormalize-os em [0,1] Se normalizar em [-1,1] ode mudar os sinais dos auto-vetores 2 Reita 22 Selecione aleatoriamente um adrão -dimensional e aresente-o à rede 23 Auste os esos das conexões entre a camada de entrada e a camada de saída de acordo com a Eq (1) 24 Normalize os vetores-eso (em colunas) 25 Atualize os esos laterais de acordo com a equacao (2)(não recisa normalizar) 26 Modifique os arâmetros β, η, e µ Até que {todos os esos laterais seam suficientemente equenos (a soma de seus valores absolutos sea menor que algum threshold ε)} ou {um número de iterações máximo sea atingido} Fim Exerimentos Realizados Dados sobre as imagens: conunto comosto or 208 imagens médicas dimensão 480x640 ixels (valor em nível de cinza) reresentação de cortes de um fígado humano aquisição a artir de um microscóio laser, elo Deartamento de Patologia da Fiocruz Taxas de Comressão comrimento da cadeia de dados comrimidos Taxa de Comressão = 1 comrimento da cadeia de dados originais Taxas de Comressão ara Blocos 32x32 Número de Comonentes Princiais Taxa de Comressão 1 1 ( 1 ) = 96,875 % 32 2 1 ( 2 ) = 93,75 % 32 3 ( 3 ) 90,625 % 1 = 32 Comressão de Imagens através do Padrão JPEG Utilização do alicativo xv (xview) ara linux: ossui módulo ara comressão JPEG ossibilita que o usuário selecione taxa de comressão 5

Discussão de Resultados (1) Discussão de Resultados (2) Taxa de Comressão MSE Rede PCA Adatativa PCA Clássica JPEG 96,875% 93,75% 90,625% 96,875% 93,75% 90,625% 96% 93% 90% Imagem 1 582 491 427 543 469 421 972 701 610 Imagem 2 675 549 478 617 517 462 997 758 665 Imagem 3 520 408 340 464 377 326 891 644 539 Imagem 4 580 436 358 518 407 344 930 672 564 Imagem 5 608 450 367 530 416 350 947 676 565 Imagem 6 519 400 334 464 375 322 890 644 536 Imagem 7 541 396 333 481 374 321 904 651 539 Imagem 8 539 406 339 479 381 326 899 648 537 Imagem 9 532 392 327 466 368 316 893 640 532 Imagem Original Comressão PCA Clássica Imagem 10 561 422 353 Roseli 501Romero 397 341 947 663 557 Comressão Rede PCA Comressão JPEG Conclusões 3 técnicas de comressão foram aresentadas e alicadas em uma sequência de imagens médicas Analisando os MSE cometidos elas técnicas, Os resultados da Rede PCA foram bem similares aos obtidos ela PCA Clássica O desemenho do adrão JPEG foi inferior aos desemenhos obtidos elas duas outras técnicas Referências Hayin, S, Neural Networs, IEEE Press, 1999 RUMELHART, D; MCCLELLAND and THE PDP RESEARCH GROUP - Parallel Distributed Processing: Exlorations in the Microstructure of Cognition, vol I Cambridge MA:MIT Press, 1986 BRAGA, Antônio de Pádua; Carvalho, André Carlos Ponce de Leon Ferreira Redes neurais artificiais : teoria e alicações, Rio de Janeiro : LTC Editora, 2000 262 6