s:
|
|
- Esther Figueiredo Galvão
- 8 Há anos
- Visualizações:
Transcrição
1 CLASSIFICAÇÃO DO TEOR DE GORDURA EM LEITE UHT UTILIZANDO TÉCNICAS DE ULTRA-SOM E REDES NEURAIS EM FUNÇÃO DA TEMPERATURA Sérgio Luiz Sousa Nazario, Humberto Cesar Brandao de Oliveira, Claudio Kitano, Jacira dos Santos Isepon, Ricardo Tokio Higuti UNESP- Universidade Estadual Paulista, Departamento de Engenharia Elétrica, Av. Brasil,56, , Ilha Solteira, SP, Brazil UFPE- Universidade Federal de Pernambuco, Centro de Informática (CIN), Cidade Universitária, , Caixa Postal 7851, Recife, Pernambuco, Brasil s: slsnazario@aluno.feis.unesp.br, hcbo@cin.ufpe.br, kitano@dee.feis.unesp.br, jacira@agr.feis.unesp.br, tokio@dee.feis.unesp.br Abstract Neural networks and ultrasound techniques are employed in the measurement of fat content in samples of UHT milk. Acoustic propagation velocity and attenuation as function of temperature are inputs to a MLP neural network, for fat contents from 0.5 to 3.0%, with resolution of 0.1%. Keywords Milk, Ultrasound, Neural networks. Resumo Neste trabalho aplicam-se técnicas de redes neurais e medição de parâmetros acústicos para determinação do teor de gordura em amostras de leite UHT. Dados de velocidade e coeficiente de atenuação acústica em função da temperatura são utilizados por uma rede neural do tipo MLP, para teores de gordura entre 0,5 e 3,0%, com resolução de 0,1%. Palavras-chave Leite,Ultra-som, Redes neurais. 1 INTRODUÇÃO Na indústria de laticínios, a qualidade do leite é medida por alguns parâmetros como gordura, lactose, proteína e água adicionada. Baixos teores de gordura podem diminuir suas propriedades nutricionais, o que pode ser um indicativo de adulteração, com conseqüências econômicas e na saúde. Por estas razões, o leite recebido de produtores deve passar por alguns testes antes de sua aceitação nos laticínios (Behmer, 1984). Estes métodos, em geral, envolvem manipulação de produtos químicos e podem ser demorados. O método mais utilizado atualmente para medição do teor de gordura é chamado de método de Gerber e é baseado na propriedade que o ácido sulfúrico possui para dissolver a caseína do leite, sem atacar a matéria gorda, quando em concentração determinada (Behmer, 1984). Uma alternativa a ser considerada é o uso de ultra-som para caracterizar líquidos (Higuti et al., 1999) (Adamowski et al., 1995). Pela medição da velocidade de propagação acústica e do coeficiente de atenuação, pode-se obter indiretamente uma característica como a concentração em emulsões (Higuti et al., 1999) (Adamowski et al., 1995). Métodos de ultra-som são relativamente simples, não-destrutivos e podem ser usados on-line. Porém, uma dificuldade que pode ser encontrada está em relacionar os parâmetros acústicos com uma propriedade particular do material analisado. No caso de leite, o conteúdo de gordura pode ser alterado através de vários fatores: tipo de leite e criação do gado, conteúdo de água e adulteração, por exemplo. Por conseguinte há uma necessidade em desenvolver e aplicar novas técnicas de análise para a classificação de amostras. Entre elas, redes neurais têm sido aplicadas em alguns problemas. Redes Neurais Artificiais (RNAs) são sistemas paralelos distribuídos compostos por unidades de processamento simples, chamados neurônios, que calculam determinadas funções matemáticas. Na maioria dos modelos estas conexões estão associadas a pesos, os quais armazenam o conhecimento representado no modelo e servem para ponderar a entrada recebida por cada neurônio da rede (Braga et al., 2000). Redes MLP (perceptron multicamadas) são redes neurais que apresentam pelo menos uma camada intermediária ou escondida, com um poder computacional maior do que aquele apresentado pelas redes sem camadas intermediárias. Para o treinamento utilizou-se o algoritmo backpropagation. O paradigma de aprendizado é o supervisionado, ou seja, utilizam pares de entrada e saída desejada, ajustando os pesos da rede por meio de um mecanismo de correção de erros (Braga et al., 2000). O treinamento por retropropagação consiste em duas fases: forward, cuja saída da rede é definida para um dado padrão de entrada, e backward, onde utiliza-se a saída desejada e a saída calculada pela rede para atualizar os pesos de suas conexões. Cada uma dessas fases percorre a rede em um sentido através das diferentes camadas da rede. O algoritmo backpropagation procura minimi of 1785
2 zar o erro obtido pela rede com o ajuste dos pesos e limiares para que eles correspondam às coordenadas dos pontos mais baixos da superfície do erro utilizando informações do gradiente, o qual está na direção e no sentido em que a função de erro tem a taxa de variação máxima. Este trabalho teve como objetivo a utilização de técnicas que possam classificar o leite em função do teor de gordura, relacionando esta propriedade com parâmetros acústicos (velocidade e atenuação) em função da temperatura. Os parâmetros acústicos foram obtidos através de uma célula de medição. Logo em seguida, utilizou-se uma técnica de redes neurais para relacionar e codificar os dados de temperatura, velocidade e atenuação da onda pelo teor de gordura. Redes Neurais artificiais são uma excelente alternativa para resolução de problemas de classificação, uma vez que o processamento é estruturalmente paralelo, garantindo um desempenho superior ao dos modelos convencionais, possibilitando diversas funcionalidades como: adaptabilidade, tolerância à falha e abstração, aliandoas à velocidade de resposta, entre outros. Além disso o que torna as redes neurais uma técnica interessante para o problema é capacidade de ser projetada para generalizar corretamente e produzir um mapeamento de entrada-saída correto, mesmo quando a entrada for um pouco diferente dos exemplos usados para treinar a rede. 2 CÉLULA DE MEDIÇÃO A célula de medição é usada para obtenção dos valores de velocidade de propagação de ultra-som e atenuação da amostra. A descrição da célula é encontrada na referência (Adamowski et al., 1995). A figura 1 apresenta um esquema da célula. Transdutor Duplo-Elemento Emissor Lin. Retardo 0 a T Receptor Lin. Retardo I Câm. Amostra Z 1 = ρ 1 c 1 Z 2 = ρ 2 c 2 a 1 a2 a 3 L 1 L 2 Figura 1: Célula de medição. Refletor A célula de medição de líqüidos utiliza um transdutor duplo-elemento, que é formado por um emissor e um receptor de ultra-som. O transdutor emissor gera um pulso ultra-sônico que se propaga pela linha de retardo 0 até alcançar o receptor. Assim, o receptor é sensibilizado, podendo medir o sinal transmitido a T (t) e a múltiplas reflexões nas várias interfaces (a 1, a 2, a 3 ). O coeficiente de reflexão na interface linha de retardo I/ líquido (R 12 ), é obtido em função dos sinais de eco a 1 (t), a 2 (t), a 3 (t) (Adamowski et al., 1995). Este coeficiente de reflexão depende das impedâncias acústicas dos meios 1 e 2, sendo calculado a partir da equação (1): R 12 = Z 2 Z 1 Z 2 + Z 1 = f(a 1, a 2, a 3 ) (1) A partir da medição da diferença de tempo de propagação entre dois ecos consecutivos, a 1 (t) e a 2 (t) ou a 2 (t) e a 3 (t), calcula-se a velocidade de propagação da onda acústica no meio líquido em questão é calculada. A equação (2) é utilizada para o cálculo da velocidade. c 2 = 2L 2 t 12, (2) sendo a variável L 2, o comprimento da câmara de amostra do líquido. O coeficiente de atenuação é calculado a partir do coeficiente de reflexão R 23, adquirido da interface líquido/refletor e das magnitudes das transformadas de Fourier dos sinais ( A 1 (f) e A 2 (f) ). A equação (3) é utilizada para o cálculo do coeficiente de atenuação. α 2 (f) = 1 [ A1 (f) (1 R 2 ] ln 12) R 23 2L 2 A 2 (f) R EXPERIMENTOS (3) Os experimentos foram realizados inicialmente com amostras de leite UHT. O leite UHT foi utilizado como amostra nestes estudos iniciais pois é um líquido homogêneo, com distribuição e formato de partículas regulares. Foram preparadas amostras por meio de diluição entre o leite integral e desnatado, que possuem diferentes proporções no teor de gordura. Essas amostras foram obtidas e analisadas através de métodos convencionais (Método Gerber) com a finalidade de calibrá-las para posterior confrontamento com os parâmetros acústicos. São medidos dois parâmetros acústicos: velocidade de propagação (c) e coeficiente de atenuação acústica (α), eles são relacionadas ao teor de gordura (φ v ). A freqüência de operação situa-se em torno de 5 MHz. A relação entre a velocidade de propagação da onda (c) e o teor de gordura do leite UHT é apresentada na Figura 2. Observa-se que a velocidade (c) decai com o aumento da concentração de partículas de gordura no meio, isso devido a interação das partículas de gordura com a onda de ultrasom. Quanto maior a concentração de partículas 1781 of 1785
3 de gordura menor será a velocidade de propagação. Obtém-se uma variação na velocidade, igual a -2,5 (m/s)/ % gordura. A sensibilidade é encontrada através do coeficiente angular da reta. Através dos resultados experimentais nota-se que o erro na medida pode chegar a 0,5 m/s. Assim tem-se um ótimo poder de discriminação utilizando esse parâmetro. Os experimentos foram realizados em temperatura controlada a 25,5 o C. α [Np/m] c [m/s] T = 26,5 o C 4 2 T= 26,5 o C f = 5MHZ φ v [%] Figura 3: Coeficiente de atenuação do leite UHT para freqüência de 5 MHz em função do teor de gordura φ v[%] Figura 2: Velocidade de propagação do leite UHT em função do teor de gordura. A atenuação da onda (α) também foi relacionada com o teor de gordura (φ v ) e o resultado apresentado na Figura 3. Pode-se observar que a atenuação na amostra aumenta proporcionalmente com o aumento da concentração de partículas de gordura no meio, isso devido a interação onda amostra. A atenuação foi normalizada pelo leite desnatado, ou seja, os valores indicam quanto a atenuação é superior à atenuação no leite desnatado. Obtém-se uma variação na atenuação, igual a 5,4 (Np/m)/% gordura. Através dos resultados experimentais, observa-se que o erro na medida pode chegar a 0,9 Np/m. Tem-se então um bom poder de discriminação para variação de gordura, utilizando esse parâmetro. Observa-se uma linearidade considerável para resultados de velocidade e atenuação em função do teor de gordura. Estes dados são utilizados no treinamento das redes neurais. A velocidade de propagação da onda (c) e o teor de gordura do leite UHT (φ v ) em função de uma variação de temperatura entre 15 o C e 35 o C é apresentada na Figura 4. Pode-se observar uma maior facilidade em classificar as amostras em função do teor de gordura do leite numa faixa de temperatura mais alta em torno de 35 o C. Para caracterizar corretamente as amostras de leite foram realizados experimentos numa faixa de temperatura entre 25 o C e 35 o C. A temperatura apresentase como uma variável importante no processo de discriminação do leite, pois modifica as características químicas do líquido alterando as propriedades acústicas do mesmo. Como a velocidade e a atenuação da onda sofrem sensíveis alterações com a variação de temperatura e teor de gordura utilizou-se redes neurais para conseguir classificar as amostras de leite UHT com o teor de gordura entre 3,0 e 0,5%. c [m/s] Temperatura [ o C] Figura 4: Velocidade de propagação do leite UHT em função da temperatura. 3 TREINAMENTO DAS REDES NEURAIS Neste trabalho foram utilizadas redes neurais perceptron multicamadas, que apresentam uma arquitetura composta por uma camada de entrada, uma oculta e uma de saída. A rede é projetada de tal forma que um neurônio em qualquer camada da rede está conectado a todos os neurônios da camada anterior (Haykin, 2001). A rede neural deve ser treinada para que execute tarefas como reconhecimento de padrões ou modelagem de dados (calibração). Os pesos da rede utilizados para correção dos erros w são escolhidos inicialmente de modo ale- 3,0% 2,9% 1,6% 1,0% 0,5% 1782 of 1785
4 atório, a fim de se ter uma rede inicial a ser treinada, ou seja, otimizada para as entradas e saídas da etapa de treinamento. Na etapa de treinamento apresentam-se várias entradas que propagam-se pela rede neural. Uma vez propagadas as entradas através da rede neural, pode-se calcular a saída, isto é, o valor previsto do teor de gordura do leite. Obtidos os valores previstos pela rede neural, pode-se calcular um erro de previsão total (E), o qual pode ser definido, em princípio, como o somatório do quadrado dos erros (SSE) entre o valor previsto pela rede (saída) e o valor real, como mostrado na equação (4) (Braga et al., 2000) (Yan. et al., 2006): E = 1 (SSE p ) = p p k (d p i yp i )2 (4) i=1 Sendo p o número de padrões, k o número de unidades de saída, d i a resposta desejada e y i a saída gerada pela rede neural. Conhecido o erro de previsão, deve-se corrigir alguns parâmetros da rede neural para minimizá-lo. Uma vez fixada a arquitetura da rede neural, os únicos parâmetros passíveis de correções são os pesos, dado que não há outros parâmetros. Para realizar a tal correção utiliza-se o algoritmo de backpropagation. No método da retropropagação de erros, o processo de correção dos pesos é iniciado na última camada e prossegue em direção à primeira camada. A equação para a correção dos pesos pode ser escrita como (5) (Braga et al., 2000): w ji = ηδ j x i (5) Sendo η a taxa de aprendizagem, que controla a intensidade das alterações dos pesos. Uma alta taxa de aprendizado acelera o processo, mas pode reduzir a capacidade degeneralização da rede neural. A variável δ j é a derivada do erro em relação aos pesos e x i a entrada da rede. Foram desenvolvidas redes neurais MLP, que classificam o tipo de leite através de valores de atenuação e velocidade de propagação da onda pela amostra. Essas redes foram constituídas por três camadas: a primeira foi formada pelo vetor de características previamente selecionado seguido de uma camada intermediária. Por fim, a camada de saída foi formada por cinco neurônios. No treinamento de redes MLP variam-se os seguintes parâmetros: quantidade máxima de interações; quantidade de neurônios na camada intermediária da rede; taxa de aprendizado. Para cada um desses 3 parâmetros, utilizam-se 3 diferentes valores, para cada configuração o algoritmo realizou 30 treinamentos ou seja 30 redes com inicializações diferentes de pesos e a partir disso computa-se as somas de quadrado dos erros (SSE) para os conjuntos de treinamento, de validação e de teste. A melhor rede foi escolhida pelo menor valor médio das SSE observadas no conjunto de validação. Na camada intermediária e de saída foi utilizada a função de transferência logarítmica sigmóide. Como critério de classificação, utilizou-se o winner-takes-all, segundo o qual o neurônio de saída que forneceu o maior valor indica a classificação da rede. Dessa forma, ao apresentar um vetor desconhecido na rede, este foi considerado da classe cujo neurônio de saída mais se aproximou do valor 1. Ao adquirir os dados de temperatura, velocidade e atenuação é realizado um processo de préprocessamento desses dados, onde eles são normalizados para um intervalo entre [0 e 1]. Para os atributos categóricos e saídas utiliza-se um artifício de codificação ortogonal. Atribui-se uma seqüência de bits ao atributo, sendo que apenas um dos bits vale 1, indicando a categoria à qual a saída pertence. Por exemplo: Se um atributo tiver como valores possíveis leite A (3,0% t.g.), leite B (2,9% t.g.) e leite C (0,7% t.g.), leite D (0,6 % t.g.) e leite E (0,5 % t.g.), então: a categoria leite A fica codificada como [ ]; a categoria B fica codificada como [ ]; e assim por diante (Ergun. et al., 2004). Em seguida, o particionamento de dados adotado é o sugerido em (Prechelt, 1994), onde 50% dos padrões de cada classe são escolhidos aleatoriamente para treinamento, 25% para validação e 25% para teste. É importante que as proporções entre as classes no conjunto completo sejam mantidas nos conjuntos de treinamento, validação e teste. No presente trabalho, com a finalidade de classificar as amostras de leite UHT em 26 teores diferentes de gordura equivalentes ao conteúdo de gordura presentes no meio comercial para esse tipo de leite, utiliza-se uma rede MLP com 3 nodos na camada de entrada, representando os dados de temperatura, velocidade e atenuação da onda pela amostra de leite, e vinte e seis nodos na camada de saída e uma camada oculta variando o número de nodos em 5, 10 e 15. Obtém-se uma resolução de 0,1% para o teor de gordura no leite UHT. Além de variar a quantidade de nodos na camada oculta, varia-se a taxa de aprendizado da RNAs em 0,01, 0,001 e 0,0001 e a quantidade máxima de interações em 1500, 3000, 7000 e O dimensionamento da rede, como pode ser observado, foi realizado através do método de refinamento manual, estudando os parâmetros e escolhendo a melhor combinação testada. Não foi estudado uma dependência estatística entre esses dados, para isso deveria-se ter aplicado um outro método, por exemplo o de análise de variância of 1785
5 3.1 RESULTADOS Para verificar o desempenho das redes utilizou-se a soma de quadrado dos erros (SSE). Em cada execução há uma inicialização de pesos diferente, e sabe-se que obtêm-se resultados diferentes para cada execução. Para cada topologia usa-se a mesma inicialização de pesos quando varia-se a taxa de treinamento e o número máximo de iterações e, então, o algoritmo projetado salva a melhor rede, ou seja, a que apresentou a menor SSE no conjunto de validação. Desta forma foram selecionadas seis redes com topologias diferentes. A tabela 1 apresenta os resultados para essas redes. Na primeira e segunda coluna encontram-se o número de nodos na camada oculta (N) e o número máximo de iterações (I), respectivamente. A terceira coluna representa a taxa de aprendizado, η. As colunas seguintes são relativas aos SSEs dos conjuntos de treinamento (SSEtr), validação (SSEva) e teste (SSEte), respectivamente. E a última coluna é relativa ao erro de classificação das redes (Erro). A melhor rede apresentou, em média, a menor SSE do conjunto de validação e foi a que contém 10 nodos na camada oculta e iterações. Esta rede apresentou um erro médio de classificação no conjunto de teste de 0%. Pode-se observar na Figura 5 o decaimento do erro para a rede MLP com 5 nodos na camada oculta, taxa de aprendizado 0,0001 e máximo de 7000 iterações, que os erros para os conjuntos de validação e treinamento tendem a decrescer. Nesse gráfico não há evidências de que ocorre um overfitting (quando no gráfico do erro os dados de validação e treinamento se cruzam), devido ao fato de que o treinamento da rede alcançou o número máximo de iterações sem que o erro de validação tenha subido por 3 iterações consecutivas. Essa rede foi escolhida por ter um menor número de iterações que a rede de 10 nodos na camada oculta e iterações. Erro quadrado Iterações Figura 5: Decaimento do erro de treinamento (linha sólida) e validação (linha tracejada). Tabela 1: Resultados para as melhores redes treinadas. N I η SSEtr SSEva SSEte Erro , , , ,28 0% , , , ,25 0% , , , ,60 0% , , , ,33 0% , , , ,51 0% , , , ,45 0% Além das SSEs, computou-se o erro de classificação das redes. Observa-se que para as configurações apresentadas na tabela 1 o erro de classificação no conjunto de teste foi de 0%, o que representa 100% de classificação correta no teor de gordura das amostras analisadas. Uma grande vantagem da utilização de redes MLP com treinamento realizado pelo backpropagation é o uso de computação local pela unidade de processamento, que permite uma degradação suave no desempenho devido a erros dos sensores e, portanto, fornece base para um projeto de rede tolerante a falhas. A computação local é de natureza maciçamente paralela. Uma limitação do modelo MLP treinado por backpropagation refere-se ao custo computacional (tempo de treinamento), que tende a ser muito alto. Algumas vezes são necessárias milhares de iterações para se alcançar níveis de erros aceitáveis, pois as funções são calculadas para cada unidade e suas conexões separadamente, o que pode ser problemático em redes muito grandes, ou com grande quantidade de dados. Em particular, é muito complexo decidir qual a arquitetura ideal de uma rede MLP de maneira que ela seja tão grande quanto o necessário para conseguir obter as representações necessárias, ao mesmo tempo pequena o suficiente para se reduzir o tempo de treinamento. 4 CONCLUSÕES O trabalho teve como objetivo o uso de técnicas que possam classificar o leite em concentração de gordura em função de uma variação de temperatura. Uma célula de medição foi utilizada para aquisição dos parâmetros acústicos. Logo em seguir, ao se obter a relação entre velocidade da onda teor de gordura e atenuação da onda teor de gordura em função da temperatura utiliza-se redes neurais para relacionar e codificar os dados. Foram realizados experimentos convencionais para calibrar as amostras de leite, experimentos com a célula de medição, simulações e treinamento de redes neurais para a resolução dos problemas de classificação do leite of 1785
6 A partir dos vários treinamentos realizados com diferentes topologias e parâmetros, foram escolhidas algumas redes que podem ser utilizadas para classificar as amostras de leite. Essas redes foram utilizadas num outro algoritmo que diagnosticou com sucesso o tipo de leite, pela concentração de gordura para uma variação de temperatura entre 25 e 35 o C. Para esses algoritmos desenvolvidos conseguiu-se uma resolução de 0,1% no teor de gordura. Foram classificados 26 diferentes amostras entre 3,0 e 0,5%. Os métodos de ultra-som e redes neurais mostram-se eficazes para a classificação de teor de gordura no leite e possuem várias vantagens em relação a métodos convencionais, como: rapidez, são métodos não-destrutivos e podem ser não-agressivos. Referências Adamowski, J. C., Buiochi, F., Simon, C. and Silva, E. (1995). ultrasonic measurement of density of liquids, J. Acoust. Soc. Am. 97(1): Behmer, M. L. A. (1984). Tecnologia do leite, Produção industrialização e análise, 13 a edn, Nobel, São Paulo. Braga, A. D. P., Carvalho, A. C. P. D. L. F. and Ludemir, T. B. (2000). Redes Neurais Artificiais Teoria e Aplicaões, Inteligência Artificial, 1 a edn, LTC, Rio de Janeiro. Ergun., U., Serhatlioglu., S., Hardalaç., F. and Guler, I. (2004). classification of carotid artery stenosis of patients with diabetes by neural network and logistic regression, Computers in Biology and Medicine. 46(1): Haykin, S. (2001). Redes Neurais Principios e Praticas, Inteligência Artificial, 2 a edn, Bookman, Porto Alegre. Higuti, R. T., Bacaneli, F., Furukawa, C. M. and Adamowski, J. C. (1999). ultrasonic characterization of emulsions: Milk and walter in oil, IEEE Ultrasonic Symposium pp Prechelt, L. (1994). A set of neural network benchamark problems and benchmarking rules, 21/94: Yan., H., Jiang., Y., Zheng., J., Peng., C. and Li, Q. (2006). a multilayer perceptron-based medical decision support system for heart disease diagnosis, Expert Systems with applications. 30(2): of 1785
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisRedes Neurais Artificial. Prática. Inteligência Artificial
Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes
Leia mais3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia maisREDES NEURAIS ARTIFICIAIS
REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO
Leia maisUM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA
UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural
Leia maisRedes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas
Leia maisTÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador
Leia maisRedes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
Leia maisRECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ
RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer
Leia maisFundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes
Leia maisSELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS
SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS MARLEIDE F. ALVES 1, ANNA DIVA P. LOTUFO 1, MARA LÚCIA M. LOPES 2 1. Laboratório de Sistemas
Leia maisRedes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de
Leia maisInteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida
Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas
Leia maisInteligência Artificial Redes Neurais Artificiais
Pós-Graduação em Engenharia Elétrica Inteligência Artificial Redes Neurais Artificiais João Marques Salomão Rodrigo Varejão Andreão Arquitetura e composição das RNAs Uma rede neural artificial é composta
Leia mais3 REDES CLÁSSICAS PERCEPTRON E ADALINE
w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados
Leia maisRedes Neurais MLP: Exemplos e Características
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons
Leia maisInteligência Artificial. Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA
Inteligência Artificial Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA Projeto de Redes Neurais Projeto de Redes Neurais Baseado apenas em dados Exemplos para treinar uma rede devem ser compostos por
Leia maisInteligência Artificial Redes Neurais
Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre
Leia maisAutor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com
Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas
Leia maisRedes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisINTELIGÊNCIA ARTIFICIAL
INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos
Leia maisPrimeiras Redes Neurais Artificiais: Perceptron e Adaline
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor
Leia maisTópicos Especiais: Inteligência Artificial REDES NEURAIS
Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig
Leia maisserotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina
Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)
Leia maisClassificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
Leia maisJAI 6 - Deep Learning Teoria e Prática
JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado
Leia maisModelagem para previsão/estimação: uma aplicação Neuro-Fuzzy
Proceeding Series of the Brazilian Society of pplied and Computational Mathematics, Vol., N., 0. Trabalho apresentado no XXXV CNMC, Natal-RN, 0. Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy
Leia maisRedes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS Aluno: Fabricio Aparecido Breve Prof.: Dr. André Ponce
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons
Leia maisPor que Redes Neurais?
Redes Neurais Profa. Jaqueline Brigladori Pugliesi Por que Redes Neurais? Utilizar máquinas efetivamente para resolver problemas simples (humanos) Exemplo: distinguir padrões visuais previsão do valor
Leia maisUNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais
UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Orientador: Prof. Fabiano Lemes Ribeiro Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais Nome: João Vitor Squillace
Leia maisClassificação de Padrões. Abordagem prática com Redes Neurais Artificiais
Classificação de Padrões Abordagem prática com Redes Neurais Artificiais Agenda Parte I - Introdução ao aprendizado de máquina Parte II - Teoria RNA Parte III - Prática RNA Parte IV - Lições aprendidas
Leia maisCARACTERIZAÇÃO DE LEITE BOVINO UTILIZANDO ULTRA-SOM E REDES NEURAIS ARTIFICIAIS
CARACTERIZAÇÃO DE LEITE BOVINO UTILIZANDO ULTRA-SOM E REDES NEURAIS ARTIFICIAIS Sergio Luiz Sousa Nazário sergionazario@yahoocombr Flávio Buiochi fbuiochi@uspbr Cláudio Kitano kitano@deefeisunespbr Jacira
Leia maisMineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior
Aula 2 Introdução Redes Neurais Prof. Dr. Sylvio Barbon Junior barbon@uel.br Sumário 1- Inteligência Artificial 2- Introdução às Redes Neurais Artificiais 3- Modelos de Redes Neurais supervisionados e
Leia maisIntrodução às Redes Neurais Artificiais
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos
Leia maisIntrodução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana
Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)
Leia maisA evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:
Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis
Leia maisRedes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)
Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais
Leia maisRegra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem
Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja
Leia maisCódigos de bloco. Instituto Federal de Santa Catarina Curso superior de tecnologia em sistemas de telecomunicação Comunicações móveis 2
Instituto Federal de Santa Catarina Curso superior de tecnologia em sistemas de telecomunicação Comunicações móveis 2 Códigos de bloco Prof. Diego da Silva de Medeiros São José, maio de 2012 Codificação
Leia maisAprendizado de Máquina Introdução às Redes Neurais Artificiais
Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência
Leia maisRedes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas
Redes Neurais Pulsadas João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas Introdução Modelos de redes neurais podem ser classificados em gerações. Primeira Geração Neurônios de McCulloch-Pitts
Leia maisReconhecimento de Faces Utilizando Redes Neurais MLP
Reconhecimento de Faces Utilizando Redes Neurais MLP Autor: Adilmar Coelho Dantas 1, Orientador: Márcia Aparecida Fernandes 1 1 Programa de Pós-Graduação em Ciência da Computação Universidade Federal do
Leia maisp TPP = (6.1) e a rajada de perda de pacote é medida pela Comprimento Médio da Rajada (CMR ) que é dada por
6 Perdas de Pacotes O problema de perda de pacotes em rajadas nas redes IP e redes móveis é um dos fatores mais importantes a serem considerados na análise de sistemas de reconhecimento de voz distribuídos.
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas
Leia maisRedes Neurais Feedforward e Backpropagation. André Siqueira Ruela
Redes Neurais Feedforward e Backpropagation André Siqueira Ruela Sumário Introdução a redes feedforward Algoritmo feedforward Algoritmo backpropagation Feedforward Em uma rede feedforward, cada camada
Leia maisAVALIAÇÃO DE IMÓVEIS UTILIZANDO ANÁLISE MULTICRITÉRIO E REDES NEURAIS ARTIFICIAIS
XXX ENCONTRO NACIONAL DE ENGENHARIA DE PRODUÇÃO Maturidade e desafios da Engenharia de Produção: competitividade das empresas, condições de trabalho, meio ambiente. São Carlos, SP, Brasil, 12 a15 de outubro
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas
Leia maisMinicurso: Inteligência Artificial Aplicada a Sistemas Elétricos
Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em
Leia maisConsiderações de Desempenho
Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem
Leia maisImplementação de um phmetro através de Redes Neurais Artificiais e Algoritmos Genéticos
Prof. Emílio Del Moral Hernandez Implementação de um phmetro através de Redes Neurais Artificiais e Algoritmos Genéticos Alexandre Kimiyaki Ligo César Augusto Mayor Herrera Massaki de Oliveira Igarashi
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.1. Introdução às Redes Neurais Artificiais (RNAs) 2.1.1. Motivação
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Multi-layer Perceptrons e Backpropagation Marcílio Souto DIMAp/UFRN Redes de várias camadas MLP - Multi-Layer Perceptron (Adaline?!) Backpropagation network Superar as limitações
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de
Leia maisESTUDO DE ALGORITMO MLP COMO APROXIMADOR DE FUNÇÃO
Congresso Técnico Científico da Engenharia e da Agronomia CONTECC 2016 Rafain Palace Hotel & Convention Center- Foz do Iguaçu - PR 29 de agosto a 1 de setembro de 2016 ESTUDO DE ALGORITMO MLP COMO APROXIMADOR
Leia maisBack Propagation. Dicas para o BP
Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
Leia maisPrevisão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN
Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Leia maisAnálise Quantitativa de Tecidos em Úlceras de Perna
49 5 Análise Quantitativa de Tecidos em Úlceras de Perna A avaliação das áreas proporcionais de cada tecido interno das úlceras fornece informações importantes sobre seu estado patológico [BERRISS, 2000],
Leia maisMini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE
Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede
Leia mais( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)
Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação
Leia maisO uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador.
O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. Resumo: Lucas da Silva Assis Universidade Federal de Goiás lucasilvassis@gmail.com Esse trabalho apresenta
Leia maisRedes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas
Redes Neurais Dalma M. Falcão falcao@nacad.ufr.br http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Relatório: Rede Neural para tomada de decisão Christian Diego Alves Daniel cdad Icamaan Botelho Viegas da Silva - ibvs Recife, 30 de Julho de 2007. 1. Introdução A Robocup é um
Leia mais2 Fundamentos para avaliação e monitoramento de placas.
26 2 Fundamentos para avaliação e monitoramento de placas. As placas são elementos estruturais limitados por duas superfícies planas distanciadas entre si por uma espessura. No caso da dimensão da espessura
Leia mais3 REDES NEURAIS ARTIFICIAIS
47 3 REDES NEURAIS ARTIFICIAIS Neste capítulo será apresentado um breve histórico das redes neurais artificiais de modo a situar o leitor, descrevendo-se suas aplicações, teorias e finalmente detalhando-se
Leia maisMultilayer Perceptron para Classificação de Sentimento em Textos utilizando a biblioteca TensorFlow
Multilayer Perceptron para Classificação de Sentimento em Textos utilizando a biblioteca TensorFlow Jessica Imlau Dagostini, Marcos Vinicius de Moura Lima, Neilor Tonin Universidade Regional Integrada
Leia maisRedes Neurais Artificial
Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado
Leia maisRede Perceptron. Capítulo 3
Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe
Leia maisIntrodução a Redes Neurais Artificiais com a biblioteca Encog em Java
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -
Leia maisRedes Neurais. Motivação. Componentes do neurônio. Cérebro humano. Criar máquinas capazes de operar independentemente do homem:
Motivação M. Sc. Luiz Alberto lasf.bel@gmail.com Redes Neurais Criar máquinas capazes de operar independentemente do homem: Aprenda sozinha; Interagir com ambientes desconhecidos; Possa ser chamada de
Leia mais5 RNA para Diagnóstico de Falhas em Turbinas a Gás
5 RNA para Diagnóstico de Falhas em Turbinas a Gás 5.1. Introdução Neste capítulo, a aplicação de RNAs para diagnosticar as falhas no caminho do gás de turbinas a gás foi investigada. As redes neurais
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
PERCEPTRON MULTICAMADAS: TÉCNICAS DE VALIDAÇÃO Prof. Dr. André A. P. Biscaro 2º Semestre de 2016 UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT Aspectos de seleção topológica de redes PMC A especificação
Leia maisSISTEMA PARA CLASSIFICAÇÃO DE MÉIS BASEADO EM REDES NEURAIS
Revista CSBEA v. 2, n. 1 (2016) 1 SISTEMA PARA CLASSIFICAÇÃO DE MÉIS BASEADO EM REDES NEURAIS E. F. DIAS 1, M. M. de ALMEIDA 2 e E. R. DUARTE 3 1 Universidade Tecnológica Federal do Paraná, Campus Ponta
Leia maisPREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS POR SELEÇÃO DE VARIÁVEIS STEPWISE E REDES NEURAIS ARTIFICIAIS
Campus de Ilha Solteira PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS POR SELEÇÃO DE VARIÁVEIS STEPWISE E REDES NEURAIS ARTIFICIAIS MARLEIDE FERREIRA ALVES Ilha Solteira 2013 Campus de Ilha Solteira PROGRAMA
Leia maisReconhecimento de Padrões/Objetos
Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)
Leia maisAprendizado de Máquinas. Multi-Layer Perceptron (MLP)
Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.
Leia maisRECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS
1 RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS Giovanni Crestan Leonardo Enomoto Araki Thiago Antonio Grandi De Tolosa Wânderson de Oliveira Assis Wilson Carlos Siqueira Lima Júnior IMT Instituto Mauá
Leia maisFelix da Cunha 412, Pelotas RS Home-Page: s: Bolsista BIC/FAPERGS
UTILIZAÇÃO DE REDES NEURAIS PARA PREVISÕES EM SÉRIES TEMPORAIS 1 A. T. Gonçalez, A. C. R. Costa, G. P. Dimuro UCPEL Universidade Católica de Pelotas, ESIN Escola de Informática GMFC Grupo de Matemática
Leia mais7 Medição da Velocidade do Vento em um Túnel de Vento utilizando Fusão de Dados: Resultados Experimentais
7 Medição da Velocidade do Vento em um Túnel de Vento utilizando Fusão de Dados: Resultados Experimentais 7. Introdução este capítulo apresentam-se experimentos de laboratório realizados em um túnel de
Leia mais1 O que é uma Rede Neuronal?
Curso de Data Mining Sandra de Amo Aula 10 - Classificação utilizando Redes Neuronais 1 O que é uma Rede Neuronal? Até o momento, temos dois tipos de conceitos que podem ser produzidos em resposta a uma
Leia maisTESTE DE TOPOLOGIAS DE REDES NEURAIS ARTIFICIAS NA DETECÇÃO DE FALTAS MONOFÁSICAS DE ALTA IMPEDÂNCIA EM SISTEMA DE DISTRIBUIÇÃO DE ENERGIA 1
TESTE DE TOPOLOGIAS DE REDES NEURAIS ARTIFICIAS NA DETECÇÃO DE FALTAS MONOFÁSICAS DE ALTA IMPEDÂNCIA EM SISTEMA DE DISTRIBUIÇÃO DE ENERGIA 1 Eliseu Kotlinski 2, Manuel Martín Pérez Reimbold 3. 1 Relatório
Leia maisOTIMIZAÇÃO POR COLÔNIA DE FORMIGAS PARA O ROTEAMENTO EM REDES DE COMPUTADORES.
OTIMIZAÇÃO POR COLÔNIA DE FORMIGAS PARA O ROTEAMENTO EM REDES DE COMPUTADORES. Renato Guilherme Martins Junior (ICV-UNICENTRO), Richard Aderbal Gonçalves (Co-orientador), Carolina Paula de Almeida (Orientadora)
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções
Leia maisVRS usando redes neurais
IX G E G E VRS usando redes neurais Wagner Carrupt Machado GIGA Conteúdo VRS x RNA (Redes Neurais Artificiais) RNA Experimentos com ionosfera Conclusões VRS x RNA Modelagem dos erros que afetam os sinais
Leia maisReconhecimento de padrões de Código de Barras a partir da Utilização de Redes Neurais Artificiais
Reconhecimento de padrões de Código de Barras a partir da Utilização de Redes Neurais Artificiais Márcio José Conte 1,2, Merisandra Côrtes de Mattos 1,2, Priscyla Waleska Targino de Azevedo Simões 1,2,3,
Leia maisTópicos sobre Redes Neurais
Tópicos sobre Redes Neurais -Memórias Matriciais -Modelos Híbridos -Redes de Base Radial(RBF) -Redes Construtivas -Redes Recorrentes Prof João Alberto Fabro IF67D Sistemas Inteligentes 1 Dep de Informática
Leia mais