V SBQEE CLASSIFICAÇÃO DE FALTAS VIA REDES NEURAIS ARTIFICIAIS
|
|
- Rosa Castel-Branco da Silva
- 6 Há anos
- Visualizações:
Transcrição
1 V SBQEE Seminário Brasileiro sobre Qualidade da Energia Elétrica 7 a de Agosto de 3 Aracau Sergipe Brasil Código: AJU 3 7 ópico: odelagens e Simulações CLASSIFICAÇÃO DE FALAS VIA REDES NEURAIS ARIFICIAIS B A de Souza * A B Fernandes NEPEN / Fac Pio Décimo C Dantas W A Neves S S B da Silva CHESF A V Fontes N S D Brito e Silva F B Costa RESUO Este trabalho apresenta o desenvolvimento de um software classificador de faltas em linhas de transmissão, utilizando redes neurais artificiais (RNAs) e linguagem de programação C++ com recursos de programação orientada a obeto A RNA usa valores amostrados de tensões e correntes trifásicas em situação de pré e pósfalta, tanto na fase de treinamento quanto na fase de teste Foi construída uma base de conhecimento utilizando o programa AP [9] O trabalho ainda está em andamento, mas resultados muito promissores estão sendo obtidos PALAVRAS-CHAVE Classificação de Faltas, Redes Neurais Artificiais, Base de Conhecimento - INRODUÇÃO A complexidade atual do sistema elétrico, aliada às novas cargas e a privatização do setor, tem tornado o mercado de energia cada vez mais competitivo, exigindo eficiência do sistema e qualidade no serviço prestado Nesse contexto, a proteção do sistema elétrico e em particular, das linhas de transmissão, passa a ter uma importância cada vez maior no cenário atual do setor elétrico Com o advento dos microprocessadores, vários métodos analíticos vêm sendo desenvolvidos e sucessivamente testados no esquema de proteção de linhas de transmissão, que deve incluir as etapas de detecção, localização e classificação de faltas uitos desses métodos apresentam desempenho comprometido por alguns parâmetros como influência do ruído nas medições, presença de harmônicos na rede e até mudanças nas condições de operação do sistema Com o avanço das técnicas de Inteligência Artificial, em especial as Redes Neurais Artificiais, surgiu uma alternativa diferente de abordagem de problemas de diagnóstico de faltas em linhas de transmissão [], [], [5], [6] e [7] Esta metodologia vem apresentando desempenho superior aos métodos analíticos, principalmente no que diz respeito à velocidade, precisão e robustez no diagnóstico Esse trabalho tem como obetivo a implementação do módulo classificador, utilizando RNAs, linguagem de programação C++ e técnicas de modelagem orientada a obetos Dá-se enfoque às redes perceptron de múltiplas camadas com algoritmo de treinamento de Levenberg-arquardt [3] O software será incorporado ao sistema de análise de ocorrências do sistema CHESF Companhia Hidroelétrica do São Francisco, mediante um convênio firmado com o Departamento de Engenharia Elétrica da Universidade Federal de Campina Grande Outro obetivo deste trabalho é apresentar de forma didática, a construção do software classificador * Av Aprígio Veloso, 88 - CEP Campina Grande - PB - BRASIL el: +55 (83) FAX: +55 (83) benemar@deeufcgedubr
2 64 - REDES PERCEPRON DE ÚLIPLAS CAADAS Descrição Em termos gerais, uma rede perceptron de múltiplas camadas é constituída de uma camada de entrada, uma camada de saída e uma ou mais camadas escondidas, cada qual composta por unidades de processamento chamadas de neurônios Um modelo usual para um neurônio é apresentado na Figura a seguir Entrada Fixa Sinais de Entrada Figura odelo do neurônio Sendo: x={x,x,,x m ) o vetor de entrada; x =; w i ={w,w,,w m } o vetor de pesos sinápticos; w é chamado de bias e referenciado por b ; v o potencial de ativação; ϕ () a função de ativação do neurônio e y, a saída do neurônio O neurônio calcula sua saída aplicando uma função de limiar à combinação linear dos elementos do vetor de entrada apresentado, untamente com a entrada fixa, ponderados por seus respectivos pesos sinápticos A saída do neurônio é propagada ou para outros neurônios, ou para a saída da rede Uma rede perceptron de múltiplas camadas será, portanto, um conunto de neurônios organizados em camadas (Figura ) Sinais de Entrada x o =+ x x x m w w w w m Camada de Entrada Pesos Sinápticos Camada Escondida Somador Figura Rede perceptron de múltiplas camadas A informação de entrada da rede se propaga camada a camada, até a saída O vetor de saída de uma camada da rede pode ser calculado como: y =ϕ ( W x + b ) Função de ativação v ϕ() Camada de Saída y Sinais de Saída () Sendo: W a matriz de pesos da camada ; b o vetor de bias da camada ; x e y os vetores de entrada e saída da camada, respectivamente Algoritmo de treinamento Para fazer uma classificação correta, um conunto de dados representativos de todas as classes do problema deve ser apresentado à rede O conunto de dados consiste basicamente, dos vetores de entrada e seus respectivos vetores de saída deseados Desta forma, é possível realizar um treinamento supervisionado da rede O algoritmo de treinamento mais usual para redes perceptron de múltiplas camadas é o algoritmo de retropropagação proposto por Rumelhart [4] A regra de aprendizado, também conhecida como regra do gradiente descendente, explora o gradiente da função de custo da rede, dada por: S ξ = e = Sendo: e o erro entre a saída da rede e seu valor deseado; S o número de neurônios da camada de saída da rede e o número de camadas da rede A aproximação do reauste dos pesos de uma camada na iteração n é dada por: ξ( w ( = α i i, ξ( b ( = α b sendo, α o coeficiente de aprendizagem ξ( ξ( Os termos e são calculados i b aplicando a regra da cadeia: ξ( ξ( = = δ y (5) i i i, ξ( ξ( = = δ (6) b b ξ( com δ = δ é denominado de delta local e indica a sensitividade da função de custo em relação as variações no neurônio da camada O fator y i - é a saída i da camada anterior O cálculo do vetor delta local de uma camada varia com seu tipo: δ Φ& W = Φ& e + δ +, se,, se = () (3) (4) (7)
3 65 sendo Φ & a matriz cuos elementos são as derivadas dos elementos da matriz Φ com relação a v : e Φ ϕ( v ) = e = ϕ( v ) O [ e e ] e S ϕ( v S ) O reauste dos pesos é feito de forma retroativa, da ultima camada em direção a entrada da rede, utilizando (7), (6), (5), (4) e (3) para todos os elementos do conunto de treinamento Esse algoritmo apesar de apresentar simplicidade na implementação, possui uma convergência muito lenta e pode chegar até a não convergir, mesmo com a utilização de algumas heurísticas de melhoramento do método Isto se deve ao fato de que o método opera segundo uma aproximação linear da função de custo da rede na vizinhança local do ponto de operação, descrito pela matriz de pesos da rede W Ou sea, baseiase apenas no vetor gradiente como a única fonte de informação local sobre a superfície de erro Uma melhora significativa no desempenho da convergência de um perceptron de múltiplas camadas, comparado à aprendizagem pelo gradiente descendente, é conseguida tomando uma informação de ordem mais elevada no processo de treinamento [4] Em geral, se faz uma aproximação quadrática pela utilização de métodos como o de Newton, gradiente conugado e Levenberg-arquardt Nesse contexto, o treinamento da rede é visto como um problema de otimização numérica Dentre os métodos mencionados acima, optou-se pela utilização do método de Levenberg- arquardt [3], que é, na realidade, uma aproximação do método de Newton Nesse caso, a função de custo é redefinida como: N e p p= ξ = Sendo: N=S Q e Q: o número de padrões de treinamento em uma época de treinamento O obetivo é minimizar a função de custo com relação W: W = [ w w w b b w b ] S R S S Sendo: w i o peso da ligação sináptica entre os neurônios i e da camada ; b a bias do neurônio da camada ; S o número de neurônios da camada (8) (9) () () A aplicação do método de Newton resulta em: W = [ ξ( ] ξ( Sendo: ξ( a matriz Hessiana e ξ(, o vetor gradiente Como a função de custo () é uma soma de quadrados, é possível mostrar que: ξ( = J ( e( (3) ξ( = J ( (4) é a matriz Jacobiana: ( ( ( W ) L L ( ( ( W ) L = (5) L O ( ( ( N Q Q L L Sendo w o elemento do vetor W e L, o número de ligações sinápticas da rede Dessa forma, o método de Newton pode ser calculado a partir de (), (3) e (4): W = [ J ( ] J ( e( O método de Levenberg-arquardt é uma modificação do método de Newton [3], [ J ( + I] J ( e( W = µ O parâmetro µ é multiplicado por um fator β, quando o auste dos pesos provocar um aumento da função de custo e é dividido por β, quando há uma diminuição Para valores grandes de µ, o método torna-se o método do gradiente descendente, enquanto que para valores pequenos de µ, o método torna-se o método de Newton O ponto principal na implementação do método é o cálculo da matriz Jacobiana, que para uma rede perceptron de múltiplas camadas, é realizado a partir de uma pequena modificação do algoritmo de retropropagação No algoritmo de retropropagação o reauste dos pesos é calculado a partir do gradiente da função de custo: Q e ξ( q= = i q ( De acordo com (5), os elementos da matriz Jacobiana, que são necessários para o algoritmo de Levenberg-arquardt, são dados por: ( q (9) i i () (6) (7) (8)
4 66 Esses termos podem ser calculados usando o algoritmo de retropropagação, com uma modificação na camada final: δ = Φ& () Através de retropropagação pela rede, de cada coluna da matriz δ, é determinada uma linha da matriz Jacobiana Dessa forma, as mesmas expressões utilizadas para o treinamento por retropropagação: (3), (4), (5), (6) e (7), podem ser utilizadas no método de Levenberg-arquardt para o cálculo dos elementos da matriz Jacobiana O reauste dos pesos é dado por (7) 3 SISEA ESE Para se obter eficiência no treinamento da rede foi necessário construir uma base de conhecimento com características próximas das condições reais, porém imune aos ruídos, que dificultam o treinamento da rede omou-se como sistema teste, o sistema utilizado por [] O sistema de transmissão constitui-se de três linhas de transmissão trifásicas, classe 44 V, não transpostas, com quatro condutores geminados por fase e dois cabos pára-raios (Figuras 3 e 4) Fonte,5 º pu 6 Hz Barra Linha 8, m Barra Registrador Linha 5, m Barra 3 Linha 3, m Barra 4 Fonte,95 -º pu 6 Hz Figura 3 - Sistema de transmissão trifásico, classe 44 V, utilizado para geração da base de conhecimento 36, m 7,67 m 4,7 m Fase 7,5 m 9,7 m 7,5 m Fase 9,7 m Fase 3,4 m Condutores das fases: Rdc= 3,6 mω/m Diâmetro: 4,69 cm Cabos pára-raios: Rdc= 86,45 mω/m Diâmetro:,5 cm Resistividade do solo: 5, Ωm Figura 4 - Linha de transmissão trifásica classe 44 V, não transposta, com quatro condutores geminados por fase e dois cabos pára-raios Uma vez definida a topologia do sistema e modeladas as linhas de transmissão, o passo seguinte foi simular as condições de falta, as quais são apresentadas na abela 4 IPLEENAÇÃO DO ÉODO 4 Geração da base de conhecimento Na geração da base de conhecimento, o programa AP [9] foi utilizado para simular as ocorrências, a partir da condição de pré-falta, até alguns ciclos após a ocorrência da falta Por questão de compatibilidade com o formato de arquivo padronizado dos registradores digitais (IEEE CORADE, [8]), foi implementado um programa na linguagem Fortran para converter os arquivos de saída do AP para esse formato abela - Conunto de dados utilizados na simulação digital Variáveis das faltas Localização das faltas (em m) ipos de falta Resistência de falta (em Ω) Ângulo de incidência (em graus) Conunto de dados para treinamento e teste Entre as barras e : 3 e 6 Entre as barras e 3: 9, e 5 Entre as barras 3 e 4: 8,, 4, 7 e 3 A B C AB AC BC AB AC BC ABC ABC Fase-erra:,e Fase-Fase:, e, 3 e 6 (Referência: fase A da fonte ) Visando automatizar a geração da base de conhecimento, um arquivo bat (batch file) foi gerado, no qual são listados todos os casos a serem simulados (arquivos atp ) O procedimento desenvolvido: Ordena as tarefas a serem executadas pelo programa AP e pelo conversor de saída do AP para o padrão IEEE CORADE Nomeia, de forma sistemática, cada arquivo de saída Considerou-se que a classificação da falta poderia ser feita através das primeiras amostras pós-falta Desta forma, utilizou-se uma anela móvel de dados com cinco amostras, a qual percorre todo o arquivo de registro da ocorrência Aplicou-se um esquema de anelamento em cada arquivo da base de conhecimento no padrão IEEE CORADE, criando assim, uma base de conhecimento para a rede, onde cada padrão de treinamento possui cinco amostras de tensão e de corrente para cada fase
5 67 A Figura 5 ilustra a anela móvel utilizada para a construção dos padrões de treinamento da rede tensão, pu,,8,4 -,4 -,8 -, a anela fase A fase B fase C tempo, s 5a anela Figura 5 Processo de anelamento dos sinais de tensão As Figuras 6 e 7 apresentam exemplos de faltas simuladas no AP Outro ponto que merece destaque é o processo de mistura aleatória que foi aplicado aos padrões do conunto de treinamento Esse procedimento evita tendências no treinamento da rede 4 Implementação do classificador Para validação dos resultados obtidos na implementação do classificador em C++, está sendo utilizando o Neural Networ oolbox do programa atlab [], o que proporciona facilidade na realização de testes para várias arquiteturas de rede Como á citado, a classificação da falta deve ser feita utilizando valores de tensão e corrente amostrados, dispostos em uma anela de dados com cinco amostras de tensão e de corrente referentes a cada fase, o que contabiliza trinta dados de entrada para rede Como resultado da classificação, a RNA deve apresentar uma saída codificada que indica as fases envolvidas e se houve ou não conexão com a terra A abela apresenta as saídas deseadas para a RNA [] abela Respostas deseadas para a RNA Figura 6 - Falta tipo AB situada a m da barra, com resistência de falta de, Ω e ângulo de incidência de 3 Figura 7 - Falta tipo A situada a 3 m da barra, com resistência de falta de, Ω e ângulo de incidência de 3 ipo de falta Fase A S Respostas Deseadas Fase B S Fase C S 3 erra S 4 A B C AB AC BC AB AC BC ABC ABC Normal Como os dados de entrada da rede não estavam normalizados, efetuou-se normalização de modo que os valores das entradas ficassem uniformemente distribuídos entre - e Com isso, levou-se em consideração a natureza senoidal dos sinais de entrada em condições normais de operação Desta maneira, evitou-se mais uma vez, tendências no treinamento, o que faz com que a rede conseguia identificar todas as classes de maneira equivalente Alguns testes iniciais foram realizados visando determinar a eficácia do método e a precisão dos resultados obtidos com a implementação em C++, obetivo final da pesquisa odos os testes que estão sendo realizados utilizam uma mesma arquitetura de rede: trinta
6 68 neurônios na camada de entrada, quatro na camada de saída, uma camada oculta com número de neurônios variável para cada teste e função de ativação tangente hiperbólica Foram realizados dois testes O primeiro teste utilizou o algoritmo de treinamento por retropropagação com momentum [4] Nesse caso, classificou-se apenas um tipo de falta (falta A, a 3 m da barra, com resistência de falta de Ω e ângulo de incepção de 6º) Na implementação utilizando o Neural Networ oolbox do atlab, a arquitetura que obteve melhor desempenho apresentou neurônios na camada intermediária Foi obtido desempenho de % na classificação, erro mínimo de,9 na etapa de validação e tempo de treinamento de 3 minutos Na implementação em C++, com a mesma arquitetura utilizada no atlab, obteve-se também desempenho de % na classificação, erro mínimo de, e tempo de treinamento de segundos Como mencionado anteriormente, o algoritmo de retropropação apresenta alguns problemas de convergência no treinamento da rede Optou-se pela utilização do algoritmo de Levenberg- arquardt, que apesar de exigir esforço computacional maior, apresenta desempenho superior no treinamento Utilizando o Neural Networ oolbox do atlab, a arquitetura que obteve melhor desempenho apresentou 8 neurônios na camada escondida Obteve-se desempenho de % na classificação %, com erro mínimo de validação de,7 e tempo de treinamento em torno de 3h A implementação do algoritmo de Levenberg- arquardt em C++ ainda está sendo realizada 5 CONCLUSÕES A aplicação de RNAs para a classificação de faltas em linhas de transmissão, utilizando valores amostrados de tensão e corrente do sistema, está sendo avaliada nesse proeto de P&D Para os casos avaliados obteve-se desempenho de % na classificação dos padrões de falta A utilização do Neural Networ oolbox do software atlab está tendo um papel fundamental na validação das implementações que estão sendo realizadas em C++, mesmo com tempo de treinamento elevado Apesar da pesquisa estar em andamento os resultados obtidos são animadores O que se desea é que o programa desenvolvido possa ser incorporado ao sistema de análise de ocorrências da CHESF, utilizando arquivos de dados provenientes dos registradores digitais para efetuar a classificação das ocorrências 6 - REFERÊNCIAS BIBLIOGRÁFICAS [] D V Coury, R Giovanini, Classificação Rápida de Faltas em Sistemas Elétricos Utilizando Redes Neurais Artificiais, IV Congresso Brasileiro de Redes Neurais, Julho -, São José dos Campos, Brasil, 999, pp8-86 [] Olesovicz, D V Coury, R Aggarwal, Redes Neurais Artificiais Aplicadas à Classificação Rápida de Faltas em Sistemas de Potência, SBA Controle & Automação, Vol no 3/ Set, Out, Nov, Dezembro de, pp 6-68 [3] Hagan, B enha, raining Feedforward Networs with the aquardt Algorithm, IEEE rans On Neural Networs, Vol 6, no 6, pp , November 994 [4] S Hayin, Redes Neurais, Princípios e Prática, ª ed, Porto Alegre: Booman, [5] Dalstein, B uliee, Neural Networ Approach to Fault Classification for High Speed Protective Relaying, IEEE rans On Power Delivery, Vol, no, pp -9, April 995 [6] S Sidhu, H Singh, S Sachdev, Design, Implementation of an Artificial Neural Networ Based Fault Direction Discriminator for Protecting ransmission Lines, IEEE rans On Power Delivery, Vol, no, pp , April 995 [7] E A ohamed, N D Rao, Artificial Neural Networ Based Fault Diagnostic System for Eletric Power Distribution Feeders, Eletric Power Systems Research, Vol 35, pp -, February 995 [8] IEEE POWER SYSE RELAYING COIEE, IEEE Standard Common Format for ransient Data exchange (CORADE) for Power Systems, IEEE PES (C37-99), New Yor, New Yor, October 99 [9] LEUVEN EP CENER AP - Alternative ransient Program - Rule Boo Herverlee, Belgium, 987 [] he athwors, Inc, Neural Networ oolbox User s Guide, June
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer
RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ
RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional
GRUPO V GRUPO DE ESTUDO DE PROTEÇÃO, MEDIÇÃO, CONTROLE E COMUNICAÇÃO EM SISTEMAS DE POTÊNCIA (GPC)
GPC / 4 17 a 22 de Outubro de 1999 Foz do Iguaçu Paraná - Brasil GRUPO V GRUPO DE ESTUDO DE PROTEÇÃO, MEDIÇÃO, CONTROLE E COMUNICAÇÃO EM SISTEMAS DE POTÊNCIA (GPC) UM NOVO MÉTODO PARA CLASSIFICAÇÃO DE
Fundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução
3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
Rede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas
Redes Neurais Dalma M. Falcão falcao@nacad.ufr.br http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs
Redes Neurais MLP: Exemplos e Características
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1
Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions
Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a
3 Redes Neurais Introdução
3 Redes Neurais 3.. Introdução As redes neurais artificiais, ou comumente conhecidas como Neural Networs, foram motivadas em princípio pela extraordinária capacidade do cérebro humano para executar tarefas
Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas
Redes Neurais Artificiais. Professor: Juan Moises Villanueva
Redes Neurais Artificiais Mestrando: Lucas Nicolau Email: lucasfnicolau@gmail.com Professor: Juan Moises Villanueva Rede Neural Direta Arquitetura com múltiplas camadas com fluxo de informação apenas em
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas
Redes Neurais Artificial. Prática. Inteligência Artificial
Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes
Primeiras Redes Neurais Artificiais: Perceptron e Adaline
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor
TESTE DE TOPOLOGIAS DE REDES NEURAIS ARTIFICIAS NA DETECÇÃO DE FALTAS MONOFÁSICAS DE ALTA IMPEDÂNCIA EM SISTEMA DE DISTRIBUIÇÃO DE ENERGIA 1
TESTE DE TOPOLOGIAS DE REDES NEURAIS ARTIFICIAS NA DETECÇÃO DE FALTAS MONOFÁSICAS DE ALTA IMPEDÂNCIA EM SISTEMA DE DISTRIBUIÇÃO DE ENERGIA 1 Eliseu Kotlinski 2, Manuel Martín Pérez Reimbold 3. 1 Relatório
Redes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem
Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
PERCEPTRON MULTICAMADAS: TÉCNICAS DE VALIDAÇÃO Prof. Dr. André A. P. Biscaro 2º Semestre de 2016 UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT Aspectos de seleção topológica de redes PMC A especificação
Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana
Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)
Rede Perceptron. Capítulo 3
Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta
3 INTELIGÊNCIA COMPUTACIONAL (IC)
40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por
Redes Neurais Artificiais
Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas
Redes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
Reconhecimento de Padrões/Objetos
Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)
Inteligência Artificial Redes Neurais
Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre
Inteligência Computacional
Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Na Aula Passada... O que é uma
Redes Neurais Artificiais
Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de
Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Sistemas Inteligentes
Sistemas Inteligentes UNIDADE 5 Redes Neurais Artificiais (Perceptron Multicamadas Conceitos) Prof. Ivan Nunes da Silva. Rede Perceptron Multicamadas Aspectos de arquitetura Redes Perceptron de Múltiplas
Tópicos Especiais: Inteligência Artificial REDES NEURAIS
Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig
5 RNA para Diagnóstico de Falhas em Turbinas a Gás
5 RNA para Diagnóstico de Falhas em Turbinas a Gás 5.1. Introdução Neste capítulo, a aplicação de RNAs para diagnosticar as falhas no caminho do gás de turbinas a gás foi investigada. As redes neurais
INTELIGÊNCIA ARTIFICIAL
INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos
Aplicação de Redes Neurais Artificiais na Determinação de Acréscimos de Tensões Verticais em Solos Decorrentes de Carregamentos Infinitos Trapezoidais
Aplicação de Redes Neurais Artificiais na Determinação de Acréscimos de ensões Verticais em Solos Decorrentes de Carregamentos Infinitos rapezoidais Eduardo Vidal Cabral Programa de Pós-Graduação em Engenharia
APRENDIZADO EM MODELOS CONEXIONISTAS
APRENDIZADO EM MODELOS CONEXIONISAS Aprendizado é o processo pelo qual os parâmetros (os pesos das coneões entre os neurônios) de uma rede neural são austados através de uma forma continuada de estímulo
Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons
O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador.
O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. Resumo: Lucas da Silva Assis Universidade Federal de Goiás lucasilvassis@gmail.com Esse trabalho apresenta
Introdução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons
SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS
SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS MARLEIDE F. ALVES 1, ANNA DIVA P. LOTUFO 1, MARA LÚCIA M. LOPES 2 1. Laboratório de Sistemas
Figura 29 Módulo de Detecção mais Módulos de Identificação e Localização de Falta com RNA
46 0yGXORVGH,GHQWLILFDomRH/RFDOL]DomRGH)DOWD FRP51$ Neste capítulo são mostrados todos os passos utilizados para implementar os módulos de identificação e localização de faltas, descrevendo os sistemas
Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy
Proceeding Series of the Brazilian Society of pplied and Computational Mathematics, Vol., N., 0. Trabalho apresentado no XXXV CNMC, Natal-RN, 0. Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy
Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)
Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.
Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com
UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA
UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural
UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais
UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Orientador: Prof. Fabiano Lemes Ribeiro Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais Nome: João Vitor Squillace
INF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes
Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe
Redes Neurais Artificiais
Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de
Palavras-chave: distribuição de energia elétrica; fluxo de potência; regulador de tensão.
Desenvolvimento e Modelagem de Regulador de Tensão para Fluxo de Potência em Redes de Distribuição de Energia Elétrica Rodrigo Mendonça de CARVALHO; Antônio Cesar Baleeiro ALVES Escola de Engenharia Elétrica
p TPP = (6.1) e a rajada de perda de pacote é medida pela Comprimento Médio da Rajada (CMR ) que é dada por
6 Perdas de Pacotes O problema de perda de pacotes em rajadas nas redes IP e redes móveis é um dos fatores mais importantes a serem considerados na análise de sistemas de reconhecimento de voz distribuídos.
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -
Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)
Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais
SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG
Matriz Curricular FGGELET - Bacharelado em Engenharia Elétrica 0. Disciplinas Obrigatórias FGGELET.00 Algoritmos e Programação I FGGELET.00 Cálculo I FGGCOMP.00 - Cálculo I / FGGMATE.00 - Cálculo Diferencial
Redes Neurais Artificial
Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado
APLICAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA ESTIMAR MATRIZ ORIGEM-DESTINO DE CARGA
APLICAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA ESTIMAR MATRIZ ORIGEM-DESTINO DE CARGA Daniel Neves Schmitz Gonçalves Luiz Antonio Silveira Lopes Marcelino Aurelio Vieira da Silva APLICAÇÃO DE REDES NEURAIS
Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.
SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,
Redes neurais artificiais
Redes neurais artificiais Conceitos em redes neuronais Redes neuronais artificiais (RNA): uma metáfora cerebral para processamento de informações Computação neuronal Muitos usos de RNA para Reconhecimento
Análise da Complexidade de Tempo e Espaço em Algoritmos para Classificação de Padrões em sinais de ECG
Análise da Complexidade de Tempo e Espaço em Algoritmos para Classificação de Padrões em sinais de ECG Eduardo Luz David Menotti Universidade Federal de Ouro Preto 05/07/2011 Summary Rede Neuronal Artificial
Classificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
MATRIZ CURRICULAR BACHARELADO EM ENGENHARIA DA COMPUTAÇÃO. 1º Período
MATRIZ CURRICULAR BACHARELADO EM ENGENHARIA DA COMPUTAÇÃO 1º Período Código Disciplina CHT 1 CHP 2 CH Total Pré-requisitos Dados I 40 40 80 - Cálculo I 80-80 - Fundamentos da Computação 40-40 - Fundamentos
SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG
Matriz Curricular FGGCOMP - Bacharelado em Ciência da Computação 0. Disciplinas Obrigatórias FGGCOMP.00 Cálculo I FGGELET.00 - Cálculo I / FGGMATE.00 - Cálculo Diferencial e Integral I FGGCOMP.00 Geometria
SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG
Matriz Curricular FGGELET - Bacharelado em Engenharia Elétrica 00. Disciplinas Obrigatórias FGGELET.00 FGGELET.00 Algoritmos e Programação I Cálculo I 0,00 FGGCOMP.0 - Algoritmos I / FGGELET.0 - Algoritmos
SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG
Matriz Curricular FGGCOMP - Bacharelado em Ciência da Computação 0. Disciplinas Obrigatórias FGGCOMP.00 Cálculo I FGGELET.00 - Cálculo I / FGGMATE.00 - Cálculo Diferencial e Integral I FGGCOMP.00 Geometria
SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG
Matriz Curricular FGGCOMP - Bacharelado em Ciência da Computação 0. Disciplinas Obrigatórias FGGCOMP.00 Cálculo I FGGELET.00 - Cálculo I / FGGMATE.00 - Cálculo Diferencial e Integral I FGGCOMP.00 Geometria
Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela
Redes Neurais Feedforward e Backpropagation André Siqueira Ruela Sumário Introdução a redes feedforward Algoritmo feedforward Algoritmo backpropagation Feedforward Em uma rede feedforward, cada camada
4 Redes Neurais Artificiais
4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características
Décimo Quinto Encontro Regional Ibero-americano do CIGRÉ Foz do Iguaçu-PR, Brasil 19 a 23 de maio de 2013
A ESTIMAÇÃO DO VALOR EFICAZ DAS TENSÕES TRIFÁSICAS EM PONTOS ESTRATÉGICOS DE UM SISTEMA DE DISTRIBUIÇÃO VIA REDES NEURAIS ARTIFICIAIS F. B. Bottura* F. S. P. Camargo* M. Oleskovicz* R. C. Santos** * Universidade
(VWXGRVGH&DVRV ' 6 = 1. Equação 17- Erro RMSE. Equação 18 - Erro Médio Absoluto (MAPE)
8 (VWXGRVGH&DVRV Para avaliar o desempenho dos modelos de RNAs definidos neste trabalho, foram criados vários casos de testes com diversas simulações de falta. O desempenho da rede, no conjunto de testes
Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN
Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1
Grade Curricular do Curso de Graduação em Engenharia de Computação
Grade Curricular do Curso de Graduação em Engenharia de Computação Currículo 6 Aprovado pelo CDI em 30/05/16 - Carga Horária - Carga Horária Núcleo Básico 1.280h Carga Horária Núcleo Profissionalizante
GT-JeDi - Curso de Desenv. de Jogos IA para Jogos
GT-JeDi - Curso de Desenv. de Jogos IA para Jogos Gustavo Pessin 2006/2 - A07 Cronograma Conceitos Neurônio artificial Redes: Perceptron e Multi Layer Perceptron (MLP), Exemplos Separando cores Prevendo
REDES NEURAIS ARTIFICIAIS
REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO
SEMINÁRIO DOS ARTIGOS:
SEMINÁRIO DOS ARTIGOS: Text Detection and Character Recognition in Scene Images with Unsupervised Feature Learning End-to-End Text Recognition with Convolutional Neural Networks Fernanda Maria Sirlene
Introdução às Redes Neurais Artificiais
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos
Parte 7. Redes Neurais INTRODUÇÃO
Parte 7. Redes Neurais INTRODUÇÃO As redes neurais representam uma técnica de inteligência artificial que permaneceu pouco estudada por muito tempo, sendo utilizada basicamente no reconhecimento de imagens.
3 Modelos Comparativos: Teoria e Metodologia
3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito
Uso de Redes Neurais Artificiais na Determinação dos Zeros de Funções Polinomiais
Revista Tecnologias em Proeção v n p 8-5 dez 8 Uso de Redes Neurais Artificiais na Determinação dos Zeros de Funções Polinomiais Ircílio Chissolucombe Resumo A Inteligência Artificial tem sido muito utilizada
IMPLEMENTAÇÃO DE SISTEMA DE ATITUDE EM DSP
Anais do 15 O Encontro de Iniciação Científica e Pós-Graduação do ITA XV ENCITA / 2009 Instituto Tecnológico de Aeronáutica São José dos Campos SP Brasil Outubro 19 a 21 2009. IMPLEMENTAÇÃO DE SISTEMA
DISCIPLINAS DOS CERTIFICADOS DE ESTUDOS ESPECIAIS
Relação das disciplinas necessárias para obtenção de certificado de estudos especiais em: Controle e automação; Engenharia automobilística; Engenharia biomédica; Engenharia de estruturas; Engenharia de
SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG
LEI Nº.9, DE 9//00, PUBLICADA NO DOU DE 0//00, SEÇÃO I, PAGS. I - Rua São Luiz Gonzaga, s/n - São Luiz - Formiga - MG - CEP: 0-000 Tel: ()-09 - Site: www.formiga.ifmg.edu.br Matriz Curricular FGGCOMP -
Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA
Inteligência Artificial Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA Projeto de Redes Neurais Projeto de Redes Neurais Baseado apenas em dados Exemplos para treinar uma rede devem ser compostos por
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.1. Introdução às Redes Neurais Artificiais (RNAs) 2.1.1. Motivação
ASSOCIAÇÃO DE ENSINO E CULTURA PIODÉCIMO FACULDADE PIO DÉCIMO, CAMPUS III ARACAJU, SERGIPE MATERIAL PARA AULA DO ENAD ÁREA ESPECÍFICA
ASSOCIAÇÃO DE ENSINO E CULTURA PIODÉCIMO FACULDADE PIO DÉCIMO, CAMPUS III ARACAJU, SERGIPE MATERIAL PARA AULA DO ENAD ÁREA ESPECÍFICA SISTEMAS ELÉTRICOS II ENGENHARIA ELÉTRICA Prof. José Valter Alves Domingues
SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG
LEI Nº.9, DE 9//00, PUBLICADA NO DOU DE 0//00, SEÇÃO I, PAGS. I - Rua São Luiz Gonzaga, s/n - São Luiz - Formiga - MG - CEP: 70-000 Tel: (7)-09 - Site: www.formiga.ifmg.edu.br Matriz Curricular FGGCOMP
SERVIÇO PÚBLICO FEDERAL MINISTÉRIO DA EDUCAÇÃO INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE MINAS GERAIS IFMG
LEI Nº., DE //00, PUBLICADA NO DOU DE 0//00, SEÇÃO I, PAGS. I - Rua São Luiz Gonzaga, s/n - São Luiz - Formiga - MG - CEP: 0-000 Tel: ()-0 - Site: www.formiga.ifmg.edu.br Matriz Curricular FGGELET - Bacharelado
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron
ESTIMAÇÃO DA VELOCIDADE DE DESLOCAMENTO DE UMA ESTEIRA TRANSPORTADORA UTILIZANDO REDES NEURAIS ARTIFICIAIS
ESTIMAÇÃO DA VELOCIDADE DE DESLOCAMENTO DE UMA ESTEIRA TRANSPORTADORA UTILIZANDO REDES NEURAIS ARTIFICIAIS Samuel Vieira DIAS (1); Geraldo Luis Bezerra RAMALHO (2); (1) Instituto Federal de Educação, Ciência
3 SPH. 3.1 Introdução
3 SPH 3.1 Introdução Smoothed Particle Hydrodynamics (SPH) é um método puramente Lagrangiano desenvolvido por Lucy (1977) e Gingold (1977) em um estudo do campo da astrofísica voltado para colisão entre
Figura 4.2: Matriz Curricular
Figura 4.2: Matriz Curricular 3660 Fundamentos de Matemática e Estatística Física Eletrônica Algoritmos e Programação Arquitetura de Computadores Metodologias e Técnicas de Computação Engenharia e Sistemas