Treinamento de um Classificador Neural Binário: Estimativa da Distribuição de Padrões

Tamanho: px
Começar a partir da página:

Download "Treinamento de um Classificador Neural Binário: Estimativa da Distribuição de Padrões"

Transcrição

1 Treinamento de um Classificador Neural Binário: Estimativa da Distribuição de Padrões Miguel Antonio Sovierzoski 1, Fernanda Isabel Marques Argoud 2, Fernando Mendes de Azevedo 3 1 Universidade Tecnológica Federal do Paraná (UTFPR) 2 Centro Federal de Educação Tecnológica de Santa Catarina (CEFET-SC) 1,2,3 Instituto de Engenharia Biomédica da Universidade Federal de Santa Catarina (IEB-UFSC) 1 miguelaso@utfpr.edu.br, 2 fargoud@cefetsc.edu.br, 3 azevedo@ieb.ufsc.br Resumo - Com o uso crescente de sistemas de suporte a decisão, principalmente nas Ciências Médicas e Ciências da Saúde, a classificação de padrões torna-se cada vez mais relevante. Este trabalho apresenta uma metodologia para estimar a distribuição de padrões, e insere esta ferramenta nas etapas de treinamento e avaliação do classificador neural binário. A estimativa de distribuição de padrões permite, ao pesquisador, avaliar o contexto do conjunto de padrões, e acompanhar, ao longo do treinamento como o classificador neural está percebendo o conjunto de padrões na forma de distribuição. A condição necessária para estimar a distribuição de padrões, é que seja possível alterar o limiar de decisão do classificador, para analisar o comportamento da sensibilidade e especificidade em função da variável de controle. Independente da natureza dos padrões utilizados ressalta-se que esta metodologia de estimativa da distribuição de padrões aplica-se a qualquer classificador neural com treinamento supervisionado, com duas classes de padrões. A estimativa de distribuição de padrões apresenta-se como uma ferramenta a ser utilizada durante as etapas de treinamento e avaliação do classificador neural para entender como está sendo percebido o conjunto de padrões. Palavras-chave: Classificador, Classificador Neural, Distribuição de Padrões, Desempenho do Classificador. Abstract - Due to the increasing use of decision support systems, especially in Medical Sciences and Health Sciences, the pattern classification is becoming increasingly relevant. This work presents a methodology to estimate the distribution of patterns. This methodology is also inserted into the training and evaluation phases of the binary neural classifier. The estimate of the patterns of the distribution allows the researcher to evaluate the pattern set and the vision of the distribution pattern sets by the neural classifier. In order to estimate the distribution of the patterns, it is needed to change the classifier threshold, to analyze the behavior of the sensitivity and specificity towards the control variable. It is important to emphasize that the given methodology applies to any neural classifier with supervised training possessing two patterns classes. The estimative of distribution patterns presents as a tool to be used during the training and the evaluation phases of the neural classifier, in order to understand how the pattern set is visualized by the neural classifier. Key-words: Classifier, Neural Classifier, Pattern Distribution, Classifier Performance. Introdução Os sistemas de apoio à decisão estão sendo cada vez mais utilizados, em todas as áreas do conhecimento. O classificador neural binário inserese como uma ferramenta neste contexto e o processo para a sua obtenção é uma etapa iterativa com muitos treinamentos e avaliações. Partindo-se do teste-diagnóstico, apresentase, neste trabalho, uma metodologia para estimar a distribuição dos padrões, na percepção do classificador neural. Esta estimativa disponibiliza, para o pesquisador, informações para o entendimento do processo de classificação e a análise da qualidade do conjunto de padrões. Este trabalho apresenta as etapas detalhadas para estimar a distribuição de padrões, e apresenta também o contexto do treinamento e da avaliação do classificador neural. São apresentados os principais resultados do treinamento e da avaliação de um exemplo de classificador neural binário. E finaliza-se o trabalho com as discussões.

2 Metodologia O teste-diagnóstico é uma metodologia de avaliação de desempenho de sistemas classificadores, testes ou exames, muito utilizada nas áreas da Medicina e Ciências da Saúde [1][2]. Supondo a distribuição de duas classes de padrões (doentes e sadios), apresentadas pela figura 1, e um ponto de corte () ou limiar de decisão. Figura 1 Distribuição hipotética de doentes e sadios, perante uma variável de controle ( e um ponto de corte (). Padrões com valores superiores ao ponto de corte são classificados como positivos para a doença, e abaixo do ponto de corte são classificados como negativos para a doença [1][2]. A tabela de contingência (tabela 1) apresenta as relações entre a indicação do especialista (diagnóstico) e o resultado do teste ou exame [1][2]. Tabela 1 Contingência 2x2. indicação do especialista amostra sadio doente resultado positivo FP VP do teste negativo VN FN A classificação dos padrões como verdadeiro positivo (VP) representa acertos do teste, indicando corretamente os casos na distribuição dos doentes com valores superiores ao ponto de corte. Os casos de doentes com valores inferiores ao ponto de corte são classificados como falsos negativos (FN) e representam erros do teste. A classificação dos padrões como verdadeiro negativo (VN) representa acertos do teste, indicando corretamente os casos na distribuição dos sadios com valores inferiores ao ponto de corte. Os casos de sadios com valores superiores ao ponto de corte são classificados como falsos positivos (FP) e representam erros do teste. [1][2] A sensibilidade é o índice de doentes, corretamente indicados pelo teste ou classificador, sendo avaliada pela Equação (1) [1][2]. VP sensibilid ade = 1 [%] (1) VP + FN A especificidade é o índice de sadios, corretamente indicados pelo teste ou classificador, sendo avaliada pela Equação (2) [1][2]. VN especifici dade = 1 [%] (2) VN + FP Se o teste ou classificador permitir alterar o valor do ponto de corte, os indicadores de desempenho podem ser expressos em função desta variável. Da definição da sensibilidade apresentada pela Equação (1), e da distribuição dos doentes da figura 1, pode-se equacionar a sensibilidade em função do ponto de corte (), conforme apresenta a Equação (3). sensibilidade( ) = + (3) Desenvolvendo o numerador e agrupando o denominador, a Equação (3) pode ser melhor representada pela Equação (4). sensibilid ade( ) = 1 (4) Da definição da especificidade apresentada pela Equação (2), e do gráfico da distribuição dos sadios da figura 1, pode-se equacionar a especificidade em função do ponto de corte, conforme apresenta a Equação (5). sadios( especifici dade( ) = (5) sadios( Utilizando as distribuições de padrões da figura 1, e as Equações (4) e (5), obtém-se o comportamento dos índices de desempenho sensibilidade e especificidade para todos os valores da variável de controle, sendo apresentados pela figura 2. Observa-se pela Equação (5) que a especificidade representa a função densidade normalizada da distribuição dos sadios. E observase pela Equação (4) que a sensibilidade representa

3 a diferença entre a unidade e a função densidade normalizada da distribuição dos doentes. perceptron multicamadas, seguido por um elemento discretizador, conforme apresenta a figura 4. O classificador neural binário classifica os padrões em duas classes. X 1 X 2.. Σ φ(.) 1 ld (,1) X n Figura 2 Comportamento da sensibilidade e especificidade em função da variável de controle. As estimativas das distribuições de padrões podem ser obtidas dos gráficos da figura 2, calculando-se a derivada numérica das funções sensibilidade( e especificidade(, sendo apresentadas pela figura 3. Figura 3 Estimativas normalizadas das funções distribuições de padrões, calculadas a partir da derivada numérica da sensibilidade e especificidade em função da variável de controle. Comparando-se as estimativas normalizadas das distribuições de padrões (figura 3) com as distribuições de padrões (figura 1) observam-se comportamentos similares das distribuições, ocorrendo divergências na escala das ordenadas devido à normalização das variáveis. Desta forma, tendo-se as curvas de sensibilidade e especificidade, pode-se calcular as suas derivadas, obtendo-se as estimativas normalizadas das distribuições dos padrões, em relação a variável de controle. Como os conjuntos de padrões são conhecidos, pode-se desnormalizar os gráficos estimados. Um método mais robusto para estimar as distribuições de padrões, também aplicado durante o processo de validação cruzada, é efetuar o levantamento do histograma de valores de saída da RNA e do valor de saída do classificador neural, em relação ao ponto de corte, para as classes do conjunto de padrões de validação. O Classificador Neural Binário é implementado por uma rede neural artificial do tipo Figura 4 Topologia de um classificador neural binário, constituído por uma RNA Perceptron Multicamadas seguida por um discretizador booleano controlado pelo limiar de decisão (ld). A RNA utiliza a função logística como função de ativação (φ(.)) do neurônio da camada de saída, possuindo uma imagem contínua e fechada entre e 1 [3][4]. O elemento discretizador efetua a comparação entre o valor de saída da RNA e o limiar de decisão (ld), apresentando uma saída com valores booleanos para o classificador neural. A variável limiar de decisão do classificador neural binário corresponde a variável de controle do testediagnóstico, e o ponto de corte é um valor específico do limiar de decisão. O treinamento da RNA utiliza o algoritmo de retropropagação do erro (backpropagation) [3][4]. É um algoritmo de gradiente descendente que minimiza o erro médio quadrático entre o valor de saída da rede neural e o valor desejado de saída, para o conjunto de padrões de treinamento. Consiste basicamente nos seguintes passos: 1) inicializar os pesos sinápticos da rede neural; 2) propagar pela rede neural o conjunto de padrões de treinamento; 3) avaliar o erro médio quadrático entre o valor de saída da rede neural e o valor desejado de saída, para todos os padrões do conjunto de treinamento; 4) retro-propagar o erro na saída da rede neural ajustando os pesos sinápticos; 5) retornar para o segundo passo para executar outra época de treinamento. [3][4] O processo de validação cruzada adaptado para a aplicação nas redes neurais consiste em utilizar dois conjuntos de padrões: um conjunto de padrões para realizar o treinamento da rede neural e outro conjunto de padrões para realizar a validação da rede neural. Aplicando o conjunto de padrões de treinamento observa-se no processo de treinamento a convergência do algoritmo. Aplicando o conjunto de padrões de validação observa-se a aprendizagem da rede neural e a época de

4 treinamento com a melhor generalização. Para a avaliação numérica do treinamento e da generalização da rede neural foi utilizado a fórmula do erro médio quadrático, conforme apresenta as Equações (6) e (7). [3] classificador com discriminação ideal (FN= e FP=, => sensibilidade=1 e especificidade=1). N 1 t 2 ξ ( et) =. ( d ( n) y ( n) ) (6) T 2. N t t t n = 1 Onde: d t (n) é a saída desejada para o padrão de treinamento n, y t (n) é a saída da RNA para o respectivo padrão, N t é o número de padrões do conjunto de treinamento e ξ T (et) é o erro de treinamento da época et. N 1 v 2 ξ ( et) =. ( d ( n) y ( n) ) (7) V 2. N v v v n = 1 Onde: d v (n) é a saída desejada para o padrão de validação n, y v (n) é a saída da RNA para o respectivo padrão, N v é o número de padrões do conjunto de validação e ξ V (et) é o erro de validação ou aprendizagem da época de treinamento et. A avaliação do desempenho do classificador neural pode ser realizada durante a fase de treinamento da RNA. Ao final da época de treinamento é aplicado o conjunto de padrões de validação e alterado o valor do limiar de decisão pela faixa permitida de valores, obtendo-se os valores dos indicadores estatísticos (VP(et,ld), VN(et,ld), FP(et,ld) e FN(et,ld)) em função da época de treinamento (et) e do limiar de decisão (ld). Com estes dados, que expressam o comportamento do classificador neural, são gerados os gráficos de sensibilidade e especificidade em função da época de treinamento e do limiar de decisão, resultando em um gráfico semelhante ao da figura 2. Este procedimento integrado de treinamento da RNA e de avaliação do desempenho do classificador neural é melhor detalhado em [5]. A curva ROC (receiver operating characteristics) é considerada a figura de mérito da avaliação de sistemas classificadores aplicados principalmente nas áreas das Ciências Médicas e Ciências da Saúde [6]. Representa a relação entre a sensibilidade e a especificidade do classificador, e é obtida a partir dos gráficos de sensibilidade e especificidade em função da variável de controle. A figura 5 apresenta a curva ROC [7][8]. O principal índice da análise ROC é a área sob a curva (AUC Area Under the ROC Curve), variando de,5, para um classificador que não consegue discriminar os padrões, até 1, para um Figura 5 Curva ROC, com o eixo das abscissas representando a sensibilidade e o eixo das ordenadas representando (1 especificidade). A área abaixo da diagonal tracejada representa um classificador sem poder de discriminação de padrões. Resultados São apresentados os principais resultados do treinamento de um classificador neural binário com as estimativas das distribuições de padrões em três épocas diferentes: durante a aprendizagem, na melhor aprendizagem e na especialização da RNA. Os gráficos da avaliação do erro de treinamento e aprendizado de um treinamento de RNA são apresentados na Figura 6. Figura 6 Comportamento do erro de treinamento (azul) e aprendizado (vermelho) da RNA em função das épocas do treinamento. O erro de treinamento, avaliado ao final de cada época do algoritmo de treinamento, de acordo com a equação 6, apresenta um comportamento exponencial decrescente, indicando a convergência do algoritmo de treinamento. O erro de aprendizado é avaliado de forma semelhante, de acordo com a equação 7, com os padrões do conjunto de validação. O erro de aprendizagem com menor valor corresponde à época de treinamento com a melhor

5 generalização pela RNA. A partir desta época, o treinamento começa a especializar a RNA na identificação dos padrões do conjunto de treinamento, iniciando a perda da generalização e aumentando o erro para os padrões do conjunto de validação. Observa-se, na figura 6, que a melhor generalização para este treinamento da RNA ocorreu na época 13, com um erro mínimo de aprendizagem de,138. Para a avaliação do classificador neural fazse o levantamento dos gráficos de sensibilidade e especificidade em função do limiar de decisão do classificador e da época de treinamento. A figura 7 apresenta gráficos de sensibilidade e especificidade em diferentes épocas de treinamento: durante a aprendizagem (época 31), na melhor aprendizagem/generalização (época 131) e na especialização (época 41). Observa-se um crescimento lento e contínuo no comportamento da sensibilidade, mesmo na fase de especialização da rede neural. Na especificidade observa-se um espalhamento da abrangência com diminuição de valor para limiar de decisão baixo e médio. distribuição, diminuindo o desempenho do classificador. Ambas as distribuições possuem um espalhamento residual que altera o seu comportamento com as épocas de treinamento. Na época 41 devido ao maior espalhamento dos conjuntos de padrões ocorre um aumento da concentração residual para valores baixos de limiar de decisão ( a,2), diminuindo o desempenho do classificador. Figura 8 Estimativas das distribuições de padrões, obtidas com a derivada numérica da sensibilidade e especificidade, para as épocas: e 41 do treinamento. Figura 7 Gráfico de sensibilidade (azul) e especificidade (vermelho) em função do limiar de decisão do classificador, com passo de,2, para as épocas: e 41do treinamento. As estimativas das distribuições de padrões obtidas a partir da derivada numérica das funções da figura 7 são apresentadas na figura 8. Observam-se as duas concentrações dos padrões e seus espalhamentos nas respectivas épocas de treinamento. A medida que o treinamento evolui, a estimativa da distribuição de um dos padrões movimenta-se para limiares de decisão mais elevados, e aumenta-se o espalhamento desta Figura 9 Estimativas da distribuição de padrões, obtidas pelo levantamento do histograma de saída da RNA, para as épocas: e 41 do treinamento.

6 As estimativas das distribuições de padrões obtidas pelo levantamento do histograma na saída da RNA para os padrões de validação são apresentadas na figura 9. Nos histogramas foram definidas faixas de valores para concentração dos padrões, isto justifica as diferenças visuais entre os gráficos da figura 8 e da figura 9. Observam-se comportamentos semelhantes nas estimativas das distribuições de padrões nas duas representações. As curvas ROC para as respectivas épocas de treinamento do classificador neural são apresentadas na figura 1. Da figura 1 para a figura 1 percebe-se um suave aumento da especificidade para valores baixos e médios da sensibilidade. E da figura 1 para a figura 1 observa-se um suave decréscimo da sensibilidade para valores baixos e médios da especificidade. Discussão e Conclusões Observou-se empiricamente que o índice AUC máx ocorre em épocas próximas da época do menor erro de aprendizagem, que corresponde a estratégia da parada antecipada do treinamento da rede neural. Na maioria dos treinamentos foi observado que o índice AUC máx ocorre em épocas posteriores a época de menor erro de aprendizagem. Este comportamento deve-se as diferentes ferramentas e critérios de avaliação entre a rede neural artificial e o classificador neural binário. Ao longo do treinamento foi observado o comportamento das distribuições, que na fase inicial de treinamento da RNA estão quase totalmente superpostas e ocorrendo um afastamento gradativo e um aumento do espalhamento ao longo do treinamento. Referências [1] Medronho RA, Carvalho DM, Bloch KV, Luiz RR, Werneck GL. Epidemiologia, São Paulo, Atheneu; 24. [2] Massad E, Menezes RX, Silveira PSP, Ortega NRS. Métodos Quantitativos em Medicina, Manole; 24. [3] Haykin S. Neural Networks: A Comprehensive Foundation, Prentice Hall; [4] Rojas R. Neural Networks: A Systematic Introduction, Springer; Figura 1 Curvas ROC do classificador para as épocas: e 41 do treinamento. O comportamento do índice AUC ao longo do treinamento é apresentado pela Figura 11, ocorrendo um aumento crescente do índice na fase de aprendizagem, o valor máximo e um decréscimo constante na fase da especialização da RNA. [5] Sovierzoski MA, Argoud FIM, Azevedo FM. Evaluation of ANN Classifiers During Supervised Training with ROC Analysis and Cross Validation. Proceedings of the 1 st International Conference on BioMedical Engineering and Informatics, 28 May 3-31, Sanya. China: p [6] Mazurowski MA, Habas PA, Zurada JM, Lo JY, Baker JA, Tourassi GD. Training neural network classifiers for medical decision making: The effects of imbalanced datasets on classification performance. Neural Networks 28 21: [7] Eberhart RC, Dobbins RW. Neural Network PC Tools: A Practical Guide, USA, Academic Press; 199. Figura 11 Comportamento do índice AUC ao longo do treinamento, com AUC máx =,914 na época 17 de treinamento. [8] Fawcett T. An introduction to ROC analysis. Pattern Recognition Letters 26 27:

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

Boas Maneiras em Aprendizado de Máquinas

Boas Maneiras em Aprendizado de Máquinas Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Boas Maneiras em Aprendizado de Máquinas David Menotti www.inf.ufpr.br/menotti/ci171-182 Boas Maneiras Agenda Introdução Métricas

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

Reconhecimento de Padrões/Objetos

Reconhecimento de Padrões/Objetos Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas

Leia mais

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais Artificial. Prática. Inteligência Artificial Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

Probabilidades em Biomedicina: Uma Aplicação da Regra de Bayes

Probabilidades em Biomedicina: Uma Aplicação da Regra de Bayes Probabilidades em Biomedicina: Uma Aplicação da Regra de Bayes Introdução Os seguintes parágrafos foram retirados do artigo Uncertainty and Decisions in Medical Informatics, de P. Szolovitz, publicado

Leia mais

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS MARLEIDE F. ALVES 1, ANNA DIVA P. LOTUFO 1, MARA LÚCIA M. LOPES 2 1. Laboratório de Sistemas

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

Créditos. SCC0173 Mineração de Dados Biológicos. Aula de Hoje. Desempenho de Classificação. Classificação IV: Avaliação de Classificadores

Créditos. SCC0173 Mineração de Dados Biológicos. Aula de Hoje. Desempenho de Classificação. Classificação IV: Avaliação de Classificadores SCC0173 Mineração de Dados Biológicos Classificação IV: Avaliação de Classificadores Créditos O material a seguir consiste de adaptações e extensões dos originais: gentilmente cedidos pelo rof. André C..

Leia mais

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs)

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs) Aprendizagem de Máquina Redes Neurais Artificiais (RNAs) Plano de Aula Introdução Motivação Biológica Perceptron Superfície de Decisão Descida do Gradiente Redes Multicamadas (Multilayer) Retropropagação

Leia mais

Curso de Data Mining

Curso de Data Mining Curso de Data Mining Sandra de Amo Curvas Roc Uma curva ROC (Receiver Operating Characteristic) é um enfoque gráfico que permite visualizar os trade-offs entre as taxas de positivos verdadeiros e positivos

Leia mais

Rafael Izbicki 1 / 38

Rafael Izbicki 1 / 38 Mineração de Dados Aula 7: Classificação Rafael Izbicki 1 / 38 Revisão Um problema de classificação é um problema de predição em que Y é qualitativo. Em um problema de classificação, é comum se usar R(g)

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

Classificadores Lineares

Classificadores Lineares Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Classificadores Lineares David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Funções Discriminantes Lineares Perceptron Support

Leia mais

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1

Leia mais

DCBD. Avaliação de modelos. Métricas para avaliação de desempenho. Avaliação de modelos. Métricas para avaliação de desempenho...

DCBD. Avaliação de modelos. Métricas para avaliação de desempenho. Avaliação de modelos. Métricas para avaliação de desempenho... DCBD Métricas para avaliação de desempenho Como avaliar o desempenho de um modelo? Métodos para avaliação de desempenho Como obter estimativas confiáveis? Métodos para comparação de modelos Como comparar

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

Avaliação de Desempenho de Redes LVQ em Comparação com Redes MLP com Backpropagation na Classificação de Cromossomos

Avaliação de Desempenho de Redes LVQ em Comparação com Redes MLP com Backpropagation na Classificação de Cromossomos Avaliação de Desempenho de Redes LVQ em Comparação com Redes MLP com Backpropagation na Classificação de Cromossomos Otávio Roberto Martins de Souza UFSC otavio@eps.ufsc.br Silvana Pezzi, M.Eng UFSC spezzi@eps.ufsc.br

Leia mais

Análise Quantitativa de Tecidos em Úlceras de Perna

Análise Quantitativa de Tecidos em Úlceras de Perna 49 5 Análise Quantitativa de Tecidos em Úlceras de Perna A avaliação das áreas proporcionais de cada tecido interno das úlceras fornece informações importantes sobre seu estado patológico [BERRISS, 2000],

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís Resolução da Prova 1 SCC-5809 - Redes Neurais 2o. Semestre de 2011 - Prof. João Luís RESOLUÇÃO (2) 1. A figura abaixo mostra uma rede neural com um único neurônio escondido. Mostre que essa rede resolve

Leia mais

Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial

Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial Renan Bessa 1, Elder dos Santos Teixeira 2, Guilherme Costa Holanda 3, Auzuir Ripardo de Alexandria 4 1 Graduando em

Leia mais

5 RNA para Diagnóstico de Falhas em Turbinas a Gás

5 RNA para Diagnóstico de Falhas em Turbinas a Gás 5 RNA para Diagnóstico de Falhas em Turbinas a Gás 5.1. Introdução Neste capítulo, a aplicação de RNAs para diagnosticar as falhas no caminho do gás de turbinas a gás foi investigada. As redes neurais

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Mapas Auto-Organizáveis Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Fundamentos de Inteligência Artificial [5COP099]

Fundamentos de Inteligência Artificial [5COP099] Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução

Leia mais

Análise comparativa entre métodos estatístico e rede neural aplicados em séries temporais

Análise comparativa entre métodos estatístico e rede neural aplicados em séries temporais Análise comparativa entre métodos estatístico e rede neural aplicados em séries temporais Ana Paula de Sousa José Elmo de Menezes Introdução As formas funcionais dos modelos de previsão das redes neurais

Leia mais

Aula 9. Prof. Adilson Gonzaga

Aula 9. Prof. Adilson Gonzaga Aula 9 Prof. Adilson Gonzaga Mapeamento Atribuir uma Instância a uma classe. Cada Instância é mapeada para um elemento do conjunto de Rótulos de Classe {p,n} p positivo n negativo Atribui uma Instância

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP) Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.

Leia mais

Predição de propriedades termodinâmicas de equilíbrio líquido-vapor com uso de redes neurais

Predição de propriedades termodinâmicas de equilíbrio líquido-vapor com uso de redes neurais https://eventos.utfpr.edu.br//sicite/sicite2017/index Predição de propriedades termodinâmicas de equilíbrio líquido-vapor com uso de redes neurais RESUMO Lucas Rodrigues da Silva lucsil@alunos.utfpr.edu.br

Leia mais

Exame de Aprendizagem Automática

Exame de Aprendizagem Automática Exame de Aprendizagem Automática 2 páginas com 11 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 5 de Janeiro de 2016 Nota: O exame está cotado para 40 valores. Os 20 valores

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Camada Única Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy

Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy Proceeding Series of the Brazilian Society of pplied and Computational Mathematics, Vol., N., 0. Trabalho apresentado no XXXV CNMC, Natal-RN, 0. Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas

Leia mais

CONCENTRAÇÃO DE GASES DISSOLVIDOS EM TRANSFORMADORES A ÓLEO UTILIZANDO REDES NEURAIS ARTIFICIAIS

CONCENTRAÇÃO DE GASES DISSOLVIDOS EM TRANSFORMADORES A ÓLEO UTILIZANDO REDES NEURAIS ARTIFICIAIS CONCENTRAÇÃO DE GASES DISSOLVIDOS EM TRANSFORMADORES A ÓLEO UTILIZANDO REDES NEURAIS ARTIFICIAIS Marco Antonio Ferreira Finocchio 1 (Prof. Mestre em Engenharia Elétrica, Universidade Tecnológica Federal

Leia mais

SUPPORT VECTOR MACHINE - SVM

SUPPORT VECTOR MACHINE - SVM SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento

Leia mais

Considerações de Desempenho

Considerações de Desempenho Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

Back Propagation. Dicas para o BP

Back Propagation. Dicas para o BP Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem

Leia mais

Modelagem empírica de funções multivariáveis por redes neurais artificiais

Modelagem empírica de funções multivariáveis por redes neurais artificiais [~][/~][~][/~][~] [/~][ Blucher Proceedings Modelagem empírica de funções multivariáveis por redes neurais artificiais Cansian, A. B. M. 1* ; Costa, A. O. S. 2 ; Costa Jr, E. F. C. 2 1 Curso de Graduação

Leia mais

MODELO NEURAL COM ATRASO DE TEMPO PARA A PREVISÃO DO INCC

MODELO NEURAL COM ATRASO DE TEMPO PARA A PREVISÃO DO INCC MODELO NEURAL COM ATRASO DE TEMPO PARA A PREVISÃO DO INCC Paulo Roberto Barbosa 1 Elaine Inacio Bueno 2 Nas Ciências Econômicas ocorrem fenômenos temporais que dependem da observação de dados em um período

Leia mais

Mineração de Dados em Biologia Molecular

Mineração de Dados em Biologia Molecular Mineração de Dados em Biologia Molecular André C.. L. F. de Carvalho Monitor: Valéria Carvalho lanejamento e Análise de Experimentos rincipais tópicos Estimativa do erro artição dos dados Reamostragem

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas II Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Horários Aulas Sala 3 CCET [quinta-feira, 8:20 12:00] Atendimento

Leia mais

Lista 2 Sistemas Inteligentes (INE5633) 2014s2

Lista 2 Sistemas Inteligentes (INE5633) 2014s2 Lista 2 () 2014s2 Sistemas de Informação Universidade Federal de Santa Catarina 1. (Baseado em questão do POSCOMP 2009) Considere a árvore minimax abaixo representando um jogo, onde queremos maximizar

Leia mais

3 INTELIGÊNCIA COMPUTACIONAL (IC)

3 INTELIGÊNCIA COMPUTACIONAL (IC) 40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por

Leia mais

READING DIGITS IN NATURAL IMAGES WITH UNSUPERVISED FEATURE LEARNING

READING DIGITS IN NATURAL IMAGES WITH UNSUPERVISED FEATURE LEARNING READING DIGITS IN NATURAL IMAGES WITH UNSUPERVISED FEATURE LEARNING Fernanda Maria Sirlene READING DIGITS IN NATURAL IMAGES WITH UNSUPERVISED FEATURE LEARNING NIPS Workshop on Deep Learning and Unsupervised

Leia mais

Multiple Layer Perceptron

Multiple Layer Perceptron Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Multiple Layer Perceptron David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Multiple Layer Perceptron (MLP) Backpropagation

Leia mais

UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ (UTFPR) 2016/ PPGCA PPGCA/UTFPR -- CAIA003

UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ (UTFPR) 2016/ PPGCA PPGCA/UTFPR -- CAIA003 UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ (UTFPR) Mineração de Dados 2016/3 Professores Celso e Heitor Jean Avila Rangel 1801317 - PPGCA PPGCA/UTFPR câmpus Curitiba -- CAIA003 - Mineração de Dados --

Leia mais

SEMINÁRIO DOS ARTIGOS:

SEMINÁRIO DOS ARTIGOS: SEMINÁRIO DOS ARTIGOS: Text Detection and Character Recognition in Scene Images with Unsupervised Feature Learning End-to-End Text Recognition with Convolutional Neural Networks Fernanda Maria Sirlene

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

Classificação de dados em modelos com resposta binária via algoritmo boosting e regressão logística

Classificação de dados em modelos com resposta binária via algoritmo boosting e regressão logística Classificação de dados em modelos com resposta binária via algoritmo boosting e regressão logística Gilberto Rodrigues Liska 1 5 Fortunato Silva de Menezes 2 5 Marcelo Ângelo Cirillo 3 5 Mario Javier Ferrua

Leia mais

PROCESSO SELETIVO N 42/2019 PROVA 2 - CONHECIMENTOS ESPECÍFICOS

PROCESSO SELETIVO N 42/2019 PROVA 2 - CONHECIMENTOS ESPECÍFICOS PROCESSO SELETIVO N 42/2019 PROVA 2 - CONHECIMENTOS ESPECÍFICOS LEIA ATENTAMENTE AS INSTRUÇÕES ABAIXO 1. Você recebeu do fiscal o seguinte material: (a) Este caderno, com o enunciado das 20 (vinte) questões

Leia mais

UNIVERSIDADE FEDERAL DO RIO DE JANEIRO CENTRO DE CIÊNCIAS DA SAÚDE INSTITUTO DE ESTUDOS EM SAÚDE COLETIVA DISCIPLINA: MÉTODO EPIDEMIOLÓGICO

UNIVERSIDADE FEDERAL DO RIO DE JANEIRO CENTRO DE CIÊNCIAS DA SAÚDE INSTITUTO DE ESTUDOS EM SAÚDE COLETIVA DISCIPLINA: MÉTODO EPIDEMIOLÓGICO UNIVERSIDADE FEDERAL DO RIO DE JANEIRO CENTRO DE CIÊNCIAS DA SAÚDE INSTITUTO DE ESTUDOS EM SAÚDE COLETIVA DISCIPLINA: MÉTODO EPIDEMIOLÓGICO Validade em Estudos Epidemiológicos II Universidade Federal do

Leia mais

Roteiro. PCC142 / BCC444 - Mineração de Dados Avaliação de Classicadores. Estimativa da Acurácia. Introdução. Estimativa da Acurácia

Roteiro. PCC142 / BCC444 - Mineração de Dados Avaliação de Classicadores. Estimativa da Acurácia. Introdução. Estimativa da Acurácia Roteiro PCC142 / BCC444 - Mineração de Dados Avaliação de Classicadores Introdução Luiz Henrique de Campos Merschmann Departamento de Computação Universidade Federal de Ouro Preto luizhenrique@iceb.ufop.br

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

Regressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC

Regressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC Regressão Linear Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Overfitting 2. Treino e Validação 3. Baseline dos modelos 1 Overfitting Overfit Em muitos casos, a amostra de dados coletada

Leia mais

Projeto da Disciplina

Projeto da Disciplina Projeto da Disciplina Germano C. Vasconcelos Centro de Informática - UFPE Germano C.Vasconcelos 1 Objetivo Realizar um estudo experimental sobre a aplicação de modelos de redes neurais em um problema do

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

XII Congresso Brasileiro de Meteorologia, Foz de Iguaçu-PR, 2002

XII Congresso Brasileiro de Meteorologia, Foz de Iguaçu-PR, 2002 ESTUDO PRELIMINAR DA UTILIZAÇÃO DE REDES NEURAIS NA PREVISÃO DE TEMPERATURA MÉDIA DIÁRIA PARA A CIDADE DE PELOTAS-RS Ariane Frassoni dos Santos 1, João Gerd Zell de Mattos 1, Paulo Roberto Krebs 2 1 Faculdade

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica PERCEPTRON MULTICAMADAS: TÉCNICAS DE VALIDAÇÃO Prof. Dr. André A. P. Biscaro 2º Semestre de 2016 UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT Aspectos de seleção topológica de redes PMC A especificação

Leia mais

Rede Perceptron. Capítulo 3

Rede Perceptron. Capítulo 3 Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

Projetos finais. Grupo 3

Projetos finais. Grupo 3 Projetos finais Grupo 3 Integrantes Laez Barbosa da Fonseca Filho 8586902 laez.filho@usp.br Caetano Mastroianni Dieguez 7210164 caetano.dieguez@usp.br Lais Harumi Fukujima Aguiar 8587142 lais.aguiar.br@ieee.org

Leia mais

Combinação de Classificadores (fusão)

Combinação de Classificadores (fusão) Combinação de Classificadores (fusão) André Tavares da Silva andre.silva@udesc.br Livro da Kuncheva Roteiro Sistemas com múltiplos classificadores Fusão por voto majoritário voto majoritário ponderado

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

2284-ELE/5, 3316-IE/3

2284-ELE/5, 3316-IE/3 INTELIGÊNCIA ARTIFICIAL 2284-ELE/5, 3316-IE/3 Universidade da Beira Interior, Departamento de Informática Hugo Pedro Proença, 2007/2008 Aprendizagem Supervisionada 2 Os vários algoritmos de Aprendizagem

Leia mais

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas Redes Neurais Pulsadas João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas Introdução Modelos de redes neurais podem ser classificados em gerações. Primeira Geração Neurônios de McCulloch-Pitts

Leia mais

XIII Simpósio Brasileiro de Automação Inteligente Porto Alegre RS, 1 o 4 de Outubro de 2017

XIII Simpósio Brasileiro de Automação Inteligente Porto Alegre RS, 1 o 4 de Outubro de 2017 PREDIÇÃO DA SÉRIE TEMPORAL DE MACKEY-GLASS UTILIZANDO REDE NEURAL ARTIFICIAL APLICADA À BIOMÉDICA Luís Augusto Mesquita de Castro, Leiliane Borges Cunha, Antonio da Silva Silveira, Rejane de Barros Araújo

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que

Leia mais

Algoritmos de Aprendizado

Algoritmos de Aprendizado Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron

Leia mais

GENERALIZAÇÃO DE REDES NEURAIS ARTIFICIAS USANDO DADOS DE DIFERENTES SENSORES - LANDSAT E CBERS - UMA ABORDAGEM ORIENTADA A REGIÕES

GENERALIZAÇÃO DE REDES NEURAIS ARTIFICIAS USANDO DADOS DE DIFERENTES SENSORES - LANDSAT E CBERS - UMA ABORDAGEM ORIENTADA A REGIÕES GENERALIZAÇÃO DE REDES NEURAIS ARTIFICIAS USANDO DADOS DE DIFERENTES SENSORES - LANDSAT E CBERS - UMA ABORDAGEM ORIENTADA A REGIÕES Igor Amazonas de Andrade 1 Mosar Faria Botelho 2 Selma Regina Aranha

Leia mais

SEMINÁRIO Visão Computacional Aluno: Afonso Pinheiro

SEMINÁRIO Visão Computacional Aluno: Afonso Pinheiro SEMINÁRIO Visão Computacional Aluno: Afonso Pinheiro Detecting Pedestrians Using Patterns of Motion and Appearance *Paul Viola *Michael J. Jones *Daniel Snow Por que detectar pedestres? http://conexaopenedo.com.br/2016/02/sistema-consegue-detectar-pedestres-em-tempo-real/

Leia mais

APRENDIZADO EM MODELOS CONEXIONISTAS

APRENDIZADO EM MODELOS CONEXIONISTAS APRENDIZADO EM MODELOS CONEXIONISAS Aprendizado é o processo pelo qual os parâmetros (os pesos das coneões entre os neurônios) de uma rede neural são austados através de uma forma continuada de estímulo

Leia mais

Felix da Cunha 412, Pelotas RS Home-Page: s: Bolsista BIC/FAPERGS

Felix da Cunha 412, Pelotas RS Home-Page:    s: Bolsista BIC/FAPERGS UTILIZAÇÃO DE REDES NEURAIS PARA PREVISÕES EM SÉRIES TEMPORAIS 1 A. T. Gonçalez, A. C. R. Costa, G. P. Dimuro UCPEL Universidade Católica de Pelotas, ESIN Escola de Informática GMFC Grupo de Matemática

Leia mais

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann: Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis

Leia mais