s:

Tamanho: px
Começar a partir da página:

Download "Emails: slsnazario@aluno.feis.unesp.br, hcbo@cin.ufpe.br, kitano@dee.feis.unesp.br, jacira@agr.feis.unesp.br, tokio@dee.feis.unesp."

Transcrição

1 CLASSIFICAÇÃO DO TEOR DE GORDURA EM LEITE UHT UTILIZANDO TÉCNICAS DE ULTRA-SOM E REDES NEURAIS EM FUNÇÃO DA TEMPERATURA Sérgio Luiz Sousa Nazario, Humberto Cesar Brandao de Oliveira, Claudio Kitano, Jacira dos Santos Isepon, Ricardo Tokio Higuti UNESP- Universidade Estadual Paulista, Departamento de Engenharia Elétrica, Av. Brasil,56, , Ilha Solteira, SP, Brazil UFPE- Universidade Federal de Pernambuco, Centro de Informática (CIN), Cidade Universitária, , Caixa Postal 7851, Recife, Pernambuco, Brasil s: slsnazario@aluno.feis.unesp.br, hcbo@cin.ufpe.br, kitano@dee.feis.unesp.br, jacira@agr.feis.unesp.br, tokio@dee.feis.unesp.br Abstract Neural networks and ultrasound techniques are employed in the measurement of fat content in samples of UHT milk. Acoustic propagation velocity and attenuation as function of temperature are inputs to a MLP neural network, for fat contents from 0.5 to 3.0%, with resolution of 0.1%. Keywords Milk, Ultrasound, Neural networks. Resumo Neste trabalho aplicam-se técnicas de redes neurais e medição de parâmetros acústicos para determinação do teor de gordura em amostras de leite UHT. Dados de velocidade e coeficiente de atenuação acústica em função da temperatura são utilizados por uma rede neural do tipo MLP, para teores de gordura entre 0,5 e 3,0%, com resolução de 0,1%. Palavras-chave Leite,Ultra-som, Redes neurais. 1 INTRODUÇÃO Na indústria de laticínios, a qualidade do leite é medida por alguns parâmetros como gordura, lactose, proteína e água adicionada. Baixos teores de gordura podem diminuir suas propriedades nutricionais, o que pode ser um indicativo de adulteração, com conseqüências econômicas e na saúde. Por estas razões, o leite recebido de produtores deve passar por alguns testes antes de sua aceitação nos laticínios (Behmer, 1984). Estes métodos, em geral, envolvem manipulação de produtos químicos e podem ser demorados. O método mais utilizado atualmente para medição do teor de gordura é chamado de método de Gerber e é baseado na propriedade que o ácido sulfúrico possui para dissolver a caseína do leite, sem atacar a matéria gorda, quando em concentração determinada (Behmer, 1984). Uma alternativa a ser considerada é o uso de ultra-som para caracterizar líquidos (Higuti et al., 1999) (Adamowski et al., 1995). Pela medição da velocidade de propagação acústica e do coeficiente de atenuação, pode-se obter indiretamente uma característica como a concentração em emulsões (Higuti et al., 1999) (Adamowski et al., 1995). Métodos de ultra-som são relativamente simples, não-destrutivos e podem ser usados on-line. Porém, uma dificuldade que pode ser encontrada está em relacionar os parâmetros acústicos com uma propriedade particular do material analisado. No caso de leite, o conteúdo de gordura pode ser alterado através de vários fatores: tipo de leite e criação do gado, conteúdo de água e adulteração, por exemplo. Por conseguinte há uma necessidade em desenvolver e aplicar novas técnicas de análise para a classificação de amostras. Entre elas, redes neurais têm sido aplicadas em alguns problemas. Redes Neurais Artificiais (RNAs) são sistemas paralelos distribuídos compostos por unidades de processamento simples, chamados neurônios, que calculam determinadas funções matemáticas. Na maioria dos modelos estas conexões estão associadas a pesos, os quais armazenam o conhecimento representado no modelo e servem para ponderar a entrada recebida por cada neurônio da rede (Braga et al., 2000). Redes MLP (perceptron multicamadas) são redes neurais que apresentam pelo menos uma camada intermediária ou escondida, com um poder computacional maior do que aquele apresentado pelas redes sem camadas intermediárias. Para o treinamento utilizou-se o algoritmo backpropagation. O paradigma de aprendizado é o supervisionado, ou seja, utilizam pares de entrada e saída desejada, ajustando os pesos da rede por meio de um mecanismo de correção de erros (Braga et al., 2000). O treinamento por retropropagação consiste em duas fases: forward, cuja saída da rede é definida para um dado padrão de entrada, e backward, onde utiliza-se a saída desejada e a saída calculada pela rede para atualizar os pesos de suas conexões. Cada uma dessas fases percorre a rede em um sentido através das diferentes camadas da rede. O algoritmo backpropagation procura minimi of 1785

2 zar o erro obtido pela rede com o ajuste dos pesos e limiares para que eles correspondam às coordenadas dos pontos mais baixos da superfície do erro utilizando informações do gradiente, o qual está na direção e no sentido em que a função de erro tem a taxa de variação máxima. Este trabalho teve como objetivo a utilização de técnicas que possam classificar o leite em função do teor de gordura, relacionando esta propriedade com parâmetros acústicos (velocidade e atenuação) em função da temperatura. Os parâmetros acústicos foram obtidos através de uma célula de medição. Logo em seguida, utilizou-se uma técnica de redes neurais para relacionar e codificar os dados de temperatura, velocidade e atenuação da onda pelo teor de gordura. Redes Neurais artificiais são uma excelente alternativa para resolução de problemas de classificação, uma vez que o processamento é estruturalmente paralelo, garantindo um desempenho superior ao dos modelos convencionais, possibilitando diversas funcionalidades como: adaptabilidade, tolerância à falha e abstração, aliandoas à velocidade de resposta, entre outros. Além disso o que torna as redes neurais uma técnica interessante para o problema é capacidade de ser projetada para generalizar corretamente e produzir um mapeamento de entrada-saída correto, mesmo quando a entrada for um pouco diferente dos exemplos usados para treinar a rede. 2 CÉLULA DE MEDIÇÃO A célula de medição é usada para obtenção dos valores de velocidade de propagação de ultra-som e atenuação da amostra. A descrição da célula é encontrada na referência (Adamowski et al., 1995). A figura 1 apresenta um esquema da célula. Transdutor Duplo-Elemento Emissor Lin. Retardo 0 a T Receptor Lin. Retardo I Câm. Amostra Z 1 = ρ 1 c 1 Z 2 = ρ 2 c 2 a 1 a2 a 3 L 1 L 2 Figura 1: Célula de medição. Refletor A célula de medição de líqüidos utiliza um transdutor duplo-elemento, que é formado por um emissor e um receptor de ultra-som. O transdutor emissor gera um pulso ultra-sônico que se propaga pela linha de retardo 0 até alcançar o receptor. Assim, o receptor é sensibilizado, podendo medir o sinal transmitido a T (t) e a múltiplas reflexões nas várias interfaces (a 1, a 2, a 3 ). O coeficiente de reflexão na interface linha de retardo I/ líquido (R 12 ), é obtido em função dos sinais de eco a 1 (t), a 2 (t), a 3 (t) (Adamowski et al., 1995). Este coeficiente de reflexão depende das impedâncias acústicas dos meios 1 e 2, sendo calculado a partir da equação (1): R 12 = Z 2 Z 1 Z 2 + Z 1 = f(a 1, a 2, a 3 ) (1) A partir da medição da diferença de tempo de propagação entre dois ecos consecutivos, a 1 (t) e a 2 (t) ou a 2 (t) e a 3 (t), calcula-se a velocidade de propagação da onda acústica no meio líquido em questão é calculada. A equação (2) é utilizada para o cálculo da velocidade. c 2 = 2L 2 t 12, (2) sendo a variável L 2, o comprimento da câmara de amostra do líquido. O coeficiente de atenuação é calculado a partir do coeficiente de reflexão R 23, adquirido da interface líquido/refletor e das magnitudes das transformadas de Fourier dos sinais ( A 1 (f) e A 2 (f) ). A equação (3) é utilizada para o cálculo do coeficiente de atenuação. α 2 (f) = 1 [ A1 (f) (1 R 2 ] ln 12) R 23 2L 2 A 2 (f) R EXPERIMENTOS (3) Os experimentos foram realizados inicialmente com amostras de leite UHT. O leite UHT foi utilizado como amostra nestes estudos iniciais pois é um líquido homogêneo, com distribuição e formato de partículas regulares. Foram preparadas amostras por meio de diluição entre o leite integral e desnatado, que possuem diferentes proporções no teor de gordura. Essas amostras foram obtidas e analisadas através de métodos convencionais (Método Gerber) com a finalidade de calibrá-las para posterior confrontamento com os parâmetros acústicos. São medidos dois parâmetros acústicos: velocidade de propagação (c) e coeficiente de atenuação acústica (α), eles são relacionadas ao teor de gordura (φ v ). A freqüência de operação situa-se em torno de 5 MHz. A relação entre a velocidade de propagação da onda (c) e o teor de gordura do leite UHT é apresentada na Figura 2. Observa-se que a velocidade (c) decai com o aumento da concentração de partículas de gordura no meio, isso devido a interação das partículas de gordura com a onda de ultrasom. Quanto maior a concentração de partículas 1781 of 1785

3 de gordura menor será a velocidade de propagação. Obtém-se uma variação na velocidade, igual a -2,5 (m/s)/ % gordura. A sensibilidade é encontrada através do coeficiente angular da reta. Através dos resultados experimentais nota-se que o erro na medida pode chegar a 0,5 m/s. Assim tem-se um ótimo poder de discriminação utilizando esse parâmetro. Os experimentos foram realizados em temperatura controlada a 25,5 o C. α [Np/m] c [m/s] T = 26,5 o C 4 2 T= 26,5 o C f = 5MHZ φ v [%] Figura 3: Coeficiente de atenuação do leite UHT para freqüência de 5 MHz em função do teor de gordura φ v[%] Figura 2: Velocidade de propagação do leite UHT em função do teor de gordura. A atenuação da onda (α) também foi relacionada com o teor de gordura (φ v ) e o resultado apresentado na Figura 3. Pode-se observar que a atenuação na amostra aumenta proporcionalmente com o aumento da concentração de partículas de gordura no meio, isso devido a interação onda amostra. A atenuação foi normalizada pelo leite desnatado, ou seja, os valores indicam quanto a atenuação é superior à atenuação no leite desnatado. Obtém-se uma variação na atenuação, igual a 5,4 (Np/m)/% gordura. Através dos resultados experimentais, observa-se que o erro na medida pode chegar a 0,9 Np/m. Tem-se então um bom poder de discriminação para variação de gordura, utilizando esse parâmetro. Observa-se uma linearidade considerável para resultados de velocidade e atenuação em função do teor de gordura. Estes dados são utilizados no treinamento das redes neurais. A velocidade de propagação da onda (c) e o teor de gordura do leite UHT (φ v ) em função de uma variação de temperatura entre 15 o C e 35 o C é apresentada na Figura 4. Pode-se observar uma maior facilidade em classificar as amostras em função do teor de gordura do leite numa faixa de temperatura mais alta em torno de 35 o C. Para caracterizar corretamente as amostras de leite foram realizados experimentos numa faixa de temperatura entre 25 o C e 35 o C. A temperatura apresentase como uma variável importante no processo de discriminação do leite, pois modifica as características químicas do líquido alterando as propriedades acústicas do mesmo. Como a velocidade e a atenuação da onda sofrem sensíveis alterações com a variação de temperatura e teor de gordura utilizou-se redes neurais para conseguir classificar as amostras de leite UHT com o teor de gordura entre 3,0 e 0,5%. c [m/s] Temperatura [ o C] Figura 4: Velocidade de propagação do leite UHT em função da temperatura. 3 TREINAMENTO DAS REDES NEURAIS Neste trabalho foram utilizadas redes neurais perceptron multicamadas, que apresentam uma arquitetura composta por uma camada de entrada, uma oculta e uma de saída. A rede é projetada de tal forma que um neurônio em qualquer camada da rede está conectado a todos os neurônios da camada anterior (Haykin, 2001). A rede neural deve ser treinada para que execute tarefas como reconhecimento de padrões ou modelagem de dados (calibração). Os pesos da rede utilizados para correção dos erros w são escolhidos inicialmente de modo ale- 3,0% 2,9% 1,6% 1,0% 0,5% 1782 of 1785

4 atório, a fim de se ter uma rede inicial a ser treinada, ou seja, otimizada para as entradas e saídas da etapa de treinamento. Na etapa de treinamento apresentam-se várias entradas que propagam-se pela rede neural. Uma vez propagadas as entradas através da rede neural, pode-se calcular a saída, isto é, o valor previsto do teor de gordura do leite. Obtidos os valores previstos pela rede neural, pode-se calcular um erro de previsão total (E), o qual pode ser definido, em princípio, como o somatório do quadrado dos erros (SSE) entre o valor previsto pela rede (saída) e o valor real, como mostrado na equação (4) (Braga et al., 2000) (Yan. et al., 2006): E = 1 (SSE p ) = p p k (d p i yp i )2 (4) i=1 Sendo p o número de padrões, k o número de unidades de saída, d i a resposta desejada e y i a saída gerada pela rede neural. Conhecido o erro de previsão, deve-se corrigir alguns parâmetros da rede neural para minimizá-lo. Uma vez fixada a arquitetura da rede neural, os únicos parâmetros passíveis de correções são os pesos, dado que não há outros parâmetros. Para realizar a tal correção utiliza-se o algoritmo de backpropagation. No método da retropropagação de erros, o processo de correção dos pesos é iniciado na última camada e prossegue em direção à primeira camada. A equação para a correção dos pesos pode ser escrita como (5) (Braga et al., 2000): w ji = ηδ j x i (5) Sendo η a taxa de aprendizagem, que controla a intensidade das alterações dos pesos. Uma alta taxa de aprendizado acelera o processo, mas pode reduzir a capacidade degeneralização da rede neural. A variável δ j é a derivada do erro em relação aos pesos e x i a entrada da rede. Foram desenvolvidas redes neurais MLP, que classificam o tipo de leite através de valores de atenuação e velocidade de propagação da onda pela amostra. Essas redes foram constituídas por três camadas: a primeira foi formada pelo vetor de características previamente selecionado seguido de uma camada intermediária. Por fim, a camada de saída foi formada por cinco neurônios. No treinamento de redes MLP variam-se os seguintes parâmetros: quantidade máxima de interações; quantidade de neurônios na camada intermediária da rede; taxa de aprendizado. Para cada um desses 3 parâmetros, utilizam-se 3 diferentes valores, para cada configuração o algoritmo realizou 30 treinamentos ou seja 30 redes com inicializações diferentes de pesos e a partir disso computa-se as somas de quadrado dos erros (SSE) para os conjuntos de treinamento, de validação e de teste. A melhor rede foi escolhida pelo menor valor médio das SSE observadas no conjunto de validação. Na camada intermediária e de saída foi utilizada a função de transferência logarítmica sigmóide. Como critério de classificação, utilizou-se o winner-takes-all, segundo o qual o neurônio de saída que forneceu o maior valor indica a classificação da rede. Dessa forma, ao apresentar um vetor desconhecido na rede, este foi considerado da classe cujo neurônio de saída mais se aproximou do valor 1. Ao adquirir os dados de temperatura, velocidade e atenuação é realizado um processo de préprocessamento desses dados, onde eles são normalizados para um intervalo entre [0 e 1]. Para os atributos categóricos e saídas utiliza-se um artifício de codificação ortogonal. Atribui-se uma seqüência de bits ao atributo, sendo que apenas um dos bits vale 1, indicando a categoria à qual a saída pertence. Por exemplo: Se um atributo tiver como valores possíveis leite A (3,0% t.g.), leite B (2,9% t.g.) e leite C (0,7% t.g.), leite D (0,6 % t.g.) e leite E (0,5 % t.g.), então: a categoria leite A fica codificada como [ ]; a categoria B fica codificada como [ ]; e assim por diante (Ergun. et al., 2004). Em seguida, o particionamento de dados adotado é o sugerido em (Prechelt, 1994), onde 50% dos padrões de cada classe são escolhidos aleatoriamente para treinamento, 25% para validação e 25% para teste. É importante que as proporções entre as classes no conjunto completo sejam mantidas nos conjuntos de treinamento, validação e teste. No presente trabalho, com a finalidade de classificar as amostras de leite UHT em 26 teores diferentes de gordura equivalentes ao conteúdo de gordura presentes no meio comercial para esse tipo de leite, utiliza-se uma rede MLP com 3 nodos na camada de entrada, representando os dados de temperatura, velocidade e atenuação da onda pela amostra de leite, e vinte e seis nodos na camada de saída e uma camada oculta variando o número de nodos em 5, 10 e 15. Obtém-se uma resolução de 0,1% para o teor de gordura no leite UHT. Além de variar a quantidade de nodos na camada oculta, varia-se a taxa de aprendizado da RNAs em 0,01, 0,001 e 0,0001 e a quantidade máxima de interações em 1500, 3000, 7000 e O dimensionamento da rede, como pode ser observado, foi realizado através do método de refinamento manual, estudando os parâmetros e escolhendo a melhor combinação testada. Não foi estudado uma dependência estatística entre esses dados, para isso deveria-se ter aplicado um outro método, por exemplo o de análise de variância of 1785

5 3.1 RESULTADOS Para verificar o desempenho das redes utilizou-se a soma de quadrado dos erros (SSE). Em cada execução há uma inicialização de pesos diferente, e sabe-se que obtêm-se resultados diferentes para cada execução. Para cada topologia usa-se a mesma inicialização de pesos quando varia-se a taxa de treinamento e o número máximo de iterações e, então, o algoritmo projetado salva a melhor rede, ou seja, a que apresentou a menor SSE no conjunto de validação. Desta forma foram selecionadas seis redes com topologias diferentes. A tabela 1 apresenta os resultados para essas redes. Na primeira e segunda coluna encontram-se o número de nodos na camada oculta (N) e o número máximo de iterações (I), respectivamente. A terceira coluna representa a taxa de aprendizado, η. As colunas seguintes são relativas aos SSEs dos conjuntos de treinamento (SSEtr), validação (SSEva) e teste (SSEte), respectivamente. E a última coluna é relativa ao erro de classificação das redes (Erro). A melhor rede apresentou, em média, a menor SSE do conjunto de validação e foi a que contém 10 nodos na camada oculta e iterações. Esta rede apresentou um erro médio de classificação no conjunto de teste de 0%. Pode-se observar na Figura 5 o decaimento do erro para a rede MLP com 5 nodos na camada oculta, taxa de aprendizado 0,0001 e máximo de 7000 iterações, que os erros para os conjuntos de validação e treinamento tendem a decrescer. Nesse gráfico não há evidências de que ocorre um overfitting (quando no gráfico do erro os dados de validação e treinamento se cruzam), devido ao fato de que o treinamento da rede alcançou o número máximo de iterações sem que o erro de validação tenha subido por 3 iterações consecutivas. Essa rede foi escolhida por ter um menor número de iterações que a rede de 10 nodos na camada oculta e iterações. Erro quadrado Iterações Figura 5: Decaimento do erro de treinamento (linha sólida) e validação (linha tracejada). Tabela 1: Resultados para as melhores redes treinadas. N I η SSEtr SSEva SSEte Erro , , , ,28 0% , , , ,25 0% , , , ,60 0% , , , ,33 0% , , , ,51 0% , , , ,45 0% Além das SSEs, computou-se o erro de classificação das redes. Observa-se que para as configurações apresentadas na tabela 1 o erro de classificação no conjunto de teste foi de 0%, o que representa 100% de classificação correta no teor de gordura das amostras analisadas. Uma grande vantagem da utilização de redes MLP com treinamento realizado pelo backpropagation é o uso de computação local pela unidade de processamento, que permite uma degradação suave no desempenho devido a erros dos sensores e, portanto, fornece base para um projeto de rede tolerante a falhas. A computação local é de natureza maciçamente paralela. Uma limitação do modelo MLP treinado por backpropagation refere-se ao custo computacional (tempo de treinamento), que tende a ser muito alto. Algumas vezes são necessárias milhares de iterações para se alcançar níveis de erros aceitáveis, pois as funções são calculadas para cada unidade e suas conexões separadamente, o que pode ser problemático em redes muito grandes, ou com grande quantidade de dados. Em particular, é muito complexo decidir qual a arquitetura ideal de uma rede MLP de maneira que ela seja tão grande quanto o necessário para conseguir obter as representações necessárias, ao mesmo tempo pequena o suficiente para se reduzir o tempo de treinamento. 4 CONCLUSÕES O trabalho teve como objetivo o uso de técnicas que possam classificar o leite em concentração de gordura em função de uma variação de temperatura. Uma célula de medição foi utilizada para aquisição dos parâmetros acústicos. Logo em seguir, ao se obter a relação entre velocidade da onda teor de gordura e atenuação da onda teor de gordura em função da temperatura utiliza-se redes neurais para relacionar e codificar os dados. Foram realizados experimentos convencionais para calibrar as amostras de leite, experimentos com a célula de medição, simulações e treinamento de redes neurais para a resolução dos problemas de classificação do leite of 1785

6 A partir dos vários treinamentos realizados com diferentes topologias e parâmetros, foram escolhidas algumas redes que podem ser utilizadas para classificar as amostras de leite. Essas redes foram utilizadas num outro algoritmo que diagnosticou com sucesso o tipo de leite, pela concentração de gordura para uma variação de temperatura entre 25 e 35 o C. Para esses algoritmos desenvolvidos conseguiu-se uma resolução de 0,1% no teor de gordura. Foram classificados 26 diferentes amostras entre 3,0 e 0,5%. Os métodos de ultra-som e redes neurais mostram-se eficazes para a classificação de teor de gordura no leite e possuem várias vantagens em relação a métodos convencionais, como: rapidez, são métodos não-destrutivos e podem ser não-agressivos. Referências Adamowski, J. C., Buiochi, F., Simon, C. and Silva, E. (1995). ultrasonic measurement of density of liquids, J. Acoust. Soc. Am. 97(1): Behmer, M. L. A. (1984). Tecnologia do leite, Produção industrialização e análise, 13 a edn, Nobel, São Paulo. Braga, A. D. P., Carvalho, A. C. P. D. L. F. and Ludemir, T. B. (2000). Redes Neurais Artificiais Teoria e Aplicaões, Inteligência Artificial, 1 a edn, LTC, Rio de Janeiro. Ergun., U., Serhatlioglu., S., Hardalaç., F. and Guler, I. (2004). classification of carotid artery stenosis of patients with diabetes by neural network and logistic regression, Computers in Biology and Medicine. 46(1): Haykin, S. (2001). Redes Neurais Principios e Praticas, Inteligência Artificial, 2 a edn, Bookman, Porto Alegre. Higuti, R. T., Bacaneli, F., Furukawa, C. M. and Adamowski, J. C. (1999). ultrasonic characterization of emulsions: Milk and walter in oil, IEEE Ultrasonic Symposium pp Prechelt, L. (1994). A set of neural network benchamark problems and benchmarking rules, 21/94: Yan., H., Jiang., Y., Zheng., J., Peng., C. and Li, Q. (2006). a multilayer perceptron-based medical decision support system for heart disease diagnosis, Expert Systems with applications. 30(2): of 1785

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais Artificial. Prática. Inteligência Artificial Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

Fundamentos de Inteligência Artificial [5COP099]

Fundamentos de Inteligência Artificial [5COP099] Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS MARLEIDE F. ALVES 1, ANNA DIVA P. LOTUFO 1, MARA LÚCIA M. LOPES 2 1. Laboratório de Sistemas

Leia mais

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de

Leia mais

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas

Leia mais

Inteligência Artificial Redes Neurais Artificiais

Inteligência Artificial Redes Neurais Artificiais Pós-Graduação em Engenharia Elétrica Inteligência Artificial Redes Neurais Artificiais João Marques Salomão Rodrigo Varejão Andreão Arquitetura e composição das RNAs Uma rede neural artificial é composta

Leia mais

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

3 REDES CLÁSSICAS PERCEPTRON E ADALINE w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA Inteligência Artificial Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA Projeto de Redes Neurais Projeto de Redes Neurais Baseado apenas em dados Exemplos para treinar uma rede devem ser compostos por

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado

Leia mais

Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy

Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy Proceeding Series of the Brazilian Society of pplied and Computational Mathematics, Vol., N., 0. Trabalho apresentado no XXXV CNMC, Natal-RN, 0. Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy

Leia mais

Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS

Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS Aluno: Fabricio Aparecido Breve Prof.: Dr. André Ponce

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

Por que Redes Neurais?

Por que Redes Neurais? Redes Neurais Profa. Jaqueline Brigladori Pugliesi Por que Redes Neurais? Utilizar máquinas efetivamente para resolver problemas simples (humanos) Exemplo: distinguir padrões visuais previsão do valor

Leia mais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Orientador: Prof. Fabiano Lemes Ribeiro Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais Nome: João Vitor Squillace

Leia mais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais Classificação de Padrões Abordagem prática com Redes Neurais Artificiais Agenda Parte I - Introdução ao aprendizado de máquina Parte II - Teoria RNA Parte III - Prática RNA Parte IV - Lições aprendidas

Leia mais

CARACTERIZAÇÃO DE LEITE BOVINO UTILIZANDO ULTRA-SOM E REDES NEURAIS ARTIFICIAIS

CARACTERIZAÇÃO DE LEITE BOVINO UTILIZANDO ULTRA-SOM E REDES NEURAIS ARTIFICIAIS CARACTERIZAÇÃO DE LEITE BOVINO UTILIZANDO ULTRA-SOM E REDES NEURAIS ARTIFICIAIS Sergio Luiz Sousa Nazário sergionazario@yahoocombr Flávio Buiochi fbuiochi@uspbr Cláudio Kitano kitano@deefeisunespbr Jacira

Leia mais

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior Aula 2 Introdução Redes Neurais Prof. Dr. Sylvio Barbon Junior barbon@uel.br Sumário 1- Inteligência Artificial 2- Introdução às Redes Neurais Artificiais 3- Modelos de Redes Neurais supervisionados e

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann: Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis

Leia mais

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais

Leia mais

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja

Leia mais

Códigos de bloco. Instituto Federal de Santa Catarina Curso superior de tecnologia em sistemas de telecomunicação Comunicações móveis 2

Códigos de bloco. Instituto Federal de Santa Catarina Curso superior de tecnologia em sistemas de telecomunicação Comunicações móveis 2 Instituto Federal de Santa Catarina Curso superior de tecnologia em sistemas de telecomunicação Comunicações móveis 2 Códigos de bloco Prof. Diego da Silva de Medeiros São José, maio de 2012 Codificação

Leia mais

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

Aprendizado de Máquina Introdução às Redes Neurais Artificiais Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência

Leia mais

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas Redes Neurais Pulsadas João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas Introdução Modelos de redes neurais podem ser classificados em gerações. Primeira Geração Neurônios de McCulloch-Pitts

Leia mais

Reconhecimento de Faces Utilizando Redes Neurais MLP

Reconhecimento de Faces Utilizando Redes Neurais MLP Reconhecimento de Faces Utilizando Redes Neurais MLP Autor: Adilmar Coelho Dantas 1, Orientador: Márcia Aparecida Fernandes 1 1 Programa de Pós-Graduação em Ciência da Computação Universidade Federal do

Leia mais

p TPP = (6.1) e a rajada de perda de pacote é medida pela Comprimento Médio da Rajada (CMR ) que é dada por

p TPP = (6.1) e a rajada de perda de pacote é medida pela Comprimento Médio da Rajada (CMR ) que é dada por 6 Perdas de Pacotes O problema de perda de pacotes em rajadas nas redes IP e redes móveis é um dos fatores mais importantes a serem considerados na análise de sistemas de reconhecimento de voz distribuídos.

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas

Leia mais

Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela

Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela Redes Neurais Feedforward e Backpropagation André Siqueira Ruela Sumário Introdução a redes feedforward Algoritmo feedforward Algoritmo backpropagation Feedforward Em uma rede feedforward, cada camada

Leia mais

AVALIAÇÃO DE IMÓVEIS UTILIZANDO ANÁLISE MULTICRITÉRIO E REDES NEURAIS ARTIFICIAIS

AVALIAÇÃO DE IMÓVEIS UTILIZANDO ANÁLISE MULTICRITÉRIO E REDES NEURAIS ARTIFICIAIS XXX ENCONTRO NACIONAL DE ENGENHARIA DE PRODUÇÃO Maturidade e desafios da Engenharia de Produção: competitividade das empresas, condições de trabalho, meio ambiente. São Carlos, SP, Brasil, 12 a15 de outubro

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

Considerações de Desempenho

Considerações de Desempenho Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem

Leia mais

Implementação de um phmetro através de Redes Neurais Artificiais e Algoritmos Genéticos

Implementação de um phmetro através de Redes Neurais Artificiais e Algoritmos Genéticos Prof. Emílio Del Moral Hernandez Implementação de um phmetro através de Redes Neurais Artificiais e Algoritmos Genéticos Alexandre Kimiyaki Ligo César Augusto Mayor Herrera Massaki de Oliveira Igarashi

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.1. Introdução às Redes Neurais Artificiais (RNAs) 2.1.1. Motivação

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Multi-layer Perceptrons e Backpropagation Marcílio Souto DIMAp/UFRN Redes de várias camadas MLP - Multi-Layer Perceptron (Adaline?!) Backpropagation network Superar as limitações

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

ESTUDO DE ALGORITMO MLP COMO APROXIMADOR DE FUNÇÃO

ESTUDO DE ALGORITMO MLP COMO APROXIMADOR DE FUNÇÃO Congresso Técnico Científico da Engenharia e da Agronomia CONTECC 2016 Rafain Palace Hotel & Convention Center- Foz do Iguaçu - PR 29 de agosto a 1 de setembro de 2016 ESTUDO DE ALGORITMO MLP COMO APROXIMADOR

Leia mais

Back Propagation. Dicas para o BP

Back Propagation. Dicas para o BP Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

Análise Quantitativa de Tecidos em Úlceras de Perna

Análise Quantitativa de Tecidos em Úlceras de Perna 49 5 Análise Quantitativa de Tecidos em Úlceras de Perna A avaliação das áreas proporcionais de cada tecido interno das úlceras fornece informações importantes sobre seu estado patológico [BERRISS, 2000],

Leia mais

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede

Leia mais

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão) Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação

Leia mais

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador.

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. Resumo: Lucas da Silva Assis Universidade Federal de Goiás lucasilvassis@gmail.com Esse trabalho apresenta

Leia mais

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas Redes Neurais Dalma M. Falcão falcao@nacad.ufr.br http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Relatório: Rede Neural para tomada de decisão Christian Diego Alves Daniel cdad Icamaan Botelho Viegas da Silva - ibvs Recife, 30 de Julho de 2007. 1. Introdução A Robocup é um

Leia mais

2 Fundamentos para avaliação e monitoramento de placas.

2 Fundamentos para avaliação e monitoramento de placas. 26 2 Fundamentos para avaliação e monitoramento de placas. As placas são elementos estruturais limitados por duas superfícies planas distanciadas entre si por uma espessura. No caso da dimensão da espessura

Leia mais

3 REDES NEURAIS ARTIFICIAIS

3 REDES NEURAIS ARTIFICIAIS 47 3 REDES NEURAIS ARTIFICIAIS Neste capítulo será apresentado um breve histórico das redes neurais artificiais de modo a situar o leitor, descrevendo-se suas aplicações, teorias e finalmente detalhando-se

Leia mais

Multilayer Perceptron para Classificação de Sentimento em Textos utilizando a biblioteca TensorFlow

Multilayer Perceptron para Classificação de Sentimento em Textos utilizando a biblioteca TensorFlow Multilayer Perceptron para Classificação de Sentimento em Textos utilizando a biblioteca TensorFlow Jessica Imlau Dagostini, Marcos Vinicius de Moura Lima, Neilor Tonin Universidade Regional Integrada

Leia mais

Redes Neurais Artificial

Redes Neurais Artificial Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado

Leia mais

Rede Perceptron. Capítulo 3

Rede Perceptron. Capítulo 3 Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe

Leia mais

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -

Leia mais

Redes Neurais. Motivação. Componentes do neurônio. Cérebro humano. Criar máquinas capazes de operar independentemente do homem:

Redes Neurais. Motivação. Componentes do neurônio. Cérebro humano. Criar máquinas capazes de operar independentemente do homem: Motivação M. Sc. Luiz Alberto lasf.bel@gmail.com Redes Neurais Criar máquinas capazes de operar independentemente do homem: Aprenda sozinha; Interagir com ambientes desconhecidos; Possa ser chamada de

Leia mais

5 RNA para Diagnóstico de Falhas em Turbinas a Gás

5 RNA para Diagnóstico de Falhas em Turbinas a Gás 5 RNA para Diagnóstico de Falhas em Turbinas a Gás 5.1. Introdução Neste capítulo, a aplicação de RNAs para diagnosticar as falhas no caminho do gás de turbinas a gás foi investigada. As redes neurais

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica PERCEPTRON MULTICAMADAS: TÉCNICAS DE VALIDAÇÃO Prof. Dr. André A. P. Biscaro 2º Semestre de 2016 UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT Aspectos de seleção topológica de redes PMC A especificação

Leia mais

SISTEMA PARA CLASSIFICAÇÃO DE MÉIS BASEADO EM REDES NEURAIS

SISTEMA PARA CLASSIFICAÇÃO DE MÉIS BASEADO EM REDES NEURAIS Revista CSBEA v. 2, n. 1 (2016) 1 SISTEMA PARA CLASSIFICAÇÃO DE MÉIS BASEADO EM REDES NEURAIS E. F. DIAS 1, M. M. de ALMEIDA 2 e E. R. DUARTE 3 1 Universidade Tecnológica Federal do Paraná, Campus Ponta

Leia mais

PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS POR SELEÇÃO DE VARIÁVEIS STEPWISE E REDES NEURAIS ARTIFICIAIS

PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS POR SELEÇÃO DE VARIÁVEIS STEPWISE E REDES NEURAIS ARTIFICIAIS Campus de Ilha Solteira PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS POR SELEÇÃO DE VARIÁVEIS STEPWISE E REDES NEURAIS ARTIFICIAIS MARLEIDE FERREIRA ALVES Ilha Solteira 2013 Campus de Ilha Solteira PROGRAMA

Leia mais

Reconhecimento de Padrões/Objetos

Reconhecimento de Padrões/Objetos Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)

Leia mais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP) Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.

Leia mais

RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS

RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS 1 RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS Giovanni Crestan Leonardo Enomoto Araki Thiago Antonio Grandi De Tolosa Wânderson de Oliveira Assis Wilson Carlos Siqueira Lima Júnior IMT Instituto Mauá

Leia mais

Felix da Cunha 412, Pelotas RS Home-Page: s: Bolsista BIC/FAPERGS

Felix da Cunha 412, Pelotas RS Home-Page:    s: Bolsista BIC/FAPERGS UTILIZAÇÃO DE REDES NEURAIS PARA PREVISÕES EM SÉRIES TEMPORAIS 1 A. T. Gonçalez, A. C. R. Costa, G. P. Dimuro UCPEL Universidade Católica de Pelotas, ESIN Escola de Informática GMFC Grupo de Matemática

Leia mais

7 Medição da Velocidade do Vento em um Túnel de Vento utilizando Fusão de Dados: Resultados Experimentais

7 Medição da Velocidade do Vento em um Túnel de Vento utilizando Fusão de Dados: Resultados Experimentais 7 Medição da Velocidade do Vento em um Túnel de Vento utilizando Fusão de Dados: Resultados Experimentais 7. Introdução este capítulo apresentam-se experimentos de laboratório realizados em um túnel de

Leia mais

1 O que é uma Rede Neuronal?

1 O que é uma Rede Neuronal? Curso de Data Mining Sandra de Amo Aula 10 - Classificação utilizando Redes Neuronais 1 O que é uma Rede Neuronal? Até o momento, temos dois tipos de conceitos que podem ser produzidos em resposta a uma

Leia mais

TESTE DE TOPOLOGIAS DE REDES NEURAIS ARTIFICIAS NA DETECÇÃO DE FALTAS MONOFÁSICAS DE ALTA IMPEDÂNCIA EM SISTEMA DE DISTRIBUIÇÃO DE ENERGIA 1

TESTE DE TOPOLOGIAS DE REDES NEURAIS ARTIFICIAS NA DETECÇÃO DE FALTAS MONOFÁSICAS DE ALTA IMPEDÂNCIA EM SISTEMA DE DISTRIBUIÇÃO DE ENERGIA 1 TESTE DE TOPOLOGIAS DE REDES NEURAIS ARTIFICIAS NA DETECÇÃO DE FALTAS MONOFÁSICAS DE ALTA IMPEDÂNCIA EM SISTEMA DE DISTRIBUIÇÃO DE ENERGIA 1 Eliseu Kotlinski 2, Manuel Martín Pérez Reimbold 3. 1 Relatório

Leia mais

OTIMIZAÇÃO POR COLÔNIA DE FORMIGAS PARA O ROTEAMENTO EM REDES DE COMPUTADORES.

OTIMIZAÇÃO POR COLÔNIA DE FORMIGAS PARA O ROTEAMENTO EM REDES DE COMPUTADORES. OTIMIZAÇÃO POR COLÔNIA DE FORMIGAS PARA O ROTEAMENTO EM REDES DE COMPUTADORES. Renato Guilherme Martins Junior (ICV-UNICENTRO), Richard Aderbal Gonçalves (Co-orientador), Carolina Paula de Almeida (Orientadora)

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

VRS usando redes neurais

VRS usando redes neurais IX G E G E VRS usando redes neurais Wagner Carrupt Machado GIGA Conteúdo VRS x RNA (Redes Neurais Artificiais) RNA Experimentos com ionosfera Conclusões VRS x RNA Modelagem dos erros que afetam os sinais

Leia mais

Reconhecimento de padrões de Código de Barras a partir da Utilização de Redes Neurais Artificiais

Reconhecimento de padrões de Código de Barras a partir da Utilização de Redes Neurais Artificiais Reconhecimento de padrões de Código de Barras a partir da Utilização de Redes Neurais Artificiais Márcio José Conte 1,2, Merisandra Côrtes de Mattos 1,2, Priscyla Waleska Targino de Azevedo Simões 1,2,3,

Leia mais

Tópicos sobre Redes Neurais

Tópicos sobre Redes Neurais Tópicos sobre Redes Neurais -Memórias Matriciais -Modelos Híbridos -Redes de Base Radial(RBF) -Redes Construtivas -Redes Recorrentes Prof João Alberto Fabro IF67D Sistemas Inteligentes 1 Dep de Informática

Leia mais