Modelagem de Superfícies Seletivas de Freqüência e Antenas de Microfita utilizando Redes Neurais Artificiais

Tamanho: px
Começar a partir da página:

Download "Modelagem de Superfícies Seletivas de Freqüência e Antenas de Microfita utilizando Redes Neurais Artificiais"

Transcrição

1 UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE Universidade Federal do Rio Grande do Norte Centro de Tecnologia Programa de Pós-Graduação em Engenharia Elétrica Modelagem de Superfícies Seletivas de Freqüência e Antenas de Microfita utilizando Redes Neurais Artificiais Patric Lacouth da Silva Orientador: Prof. Dr. Adaildo Gomes D Assunção Dissertação de Mestrado apresentada ao Programa de Pós- Graduação em Engenharia Elétrica da UFRN (área de concentração: Telecomunicações) como parte dos requisitos para obtenção do título de Mestre em Ciências. Natal, RN, junho de 2006

2 Livros Grátis Milhares de livros grátis para download.

3 Divisão de Serviços Técnicos Catalogação da Publicação na Fonte. UFRN / Biblioteca Central Zila Mamede Silva, Patric Lacouth. Modelagem de Superfícies Seletivas de Freqüência e Antenas de Microfita utilizando Redes Neurais Artificiais, / Patric Lacouth da Silva - Natal, RN, p. : il. Orientador: Adaildo Gomes D Assunção Dissertação (Mestrado) - Universidade Federal do Rio Grande do Norte. Centro de Tecnologia. Programa de Pós-Graduação em Engenharia Elétrica. 1. Dispositivos de Microondas - Dissertação. 2. Redes Neurais Artificiais - Dissertação. 3. Antenas de microfita - Dissertação. I. D Assunção, Adaildo Gomes. II. Universidade Federal do Rio Grande do Norte. III. Título. RN/UF/BCZM CDU

4 Modelagem de Superfícies Seletivas de Freqüência e Antenas de Microfita utilizando Redes Neurais Artificiais Patric Lacouth da Silva Dissertação de Mestrado aprovada em 09 de Junho de 2006 pela banca examinadora composta pelos seguintes membros: Prof. Dr. Adaildo Gomes D Assunção (orientador)... UFRN Prof. Dr. Humberto Abdalla Júnior... UNB Prof. Dr. Paulo Henrique da Fonseca Silva... CEFET-PB Prof. Dr. Fernando Rangel de Souza... UFRN

5 Aos meus pais e a minha irmã, pela confiança, apoio constante e paciência durante esse trabalho.

6 Agradecimentos Aos meus pais, Cícero Lopes e Auricléia Lacouth, por sempre acreditarem e apoiarem minhas decisões, a minha irmã, Patrícia Lacouth, que esteve sempre presente com paciência e compreensão. Ao meu orientador, Professor Adaildo Gomes D Assunção, que acreditou e tornou possível a realização deste trabalho com sua paciência e sabedoria. Aos meus três grandes amigos, Danilo Lima, Márcio Passos e Rafael Marrocos que contribuiram e estiveram sempre presentes em todo o curso de mestrado. Ao Professor Adrião Duarte pelas idéias e dúvidas respondidas. Ao Professor Ronaldo Martins que foi sempre compreensível e paciente com a parte prática do trabalho. Aos Professores do CEFET-PB que incentivaram para o início do mestrado. Ao CNPQ pelo apoio financeiro. 1

7 Sumário Sumário Lista de Figuras Lista de Tabelas Lista de Símbolos e Abreviaturas Resumo Abstract i iii v vi viii ix 1 Introdução 1 2 Redes Neurais Artificiais Introdução Redes Neurais Artificiais e Eletromagnetismo Modelagem Neural de Dispositivos de Microondas Geração de Dados Geração de dados a partir de medições Geração de dados a partir de simulações Neurônio Perceptron A Rede Perceptron de Múltiplas Camadas Treinamento de Redes MLP Redes de Função de Base Radial Treinamento utilizando seleção auto-organizada dos centros Treinamento utilizando seleção supervisionada dos centros Comparação entre redes MLP e RBF Overlearning e Underlearning i

8 2.10 Qualidade da aprendizagem versus Quantidade de Neurônios Ocultos Conclusão Superfícies Seletivas de Freqüências Introdução Características de FSS Elementos de FSS Arranjos Passivos e Arranjos Ativos Técnicas de Medição Técnicas de Análise Aplicações Conclusão Antenas de Microfita Introdução Configurações de Patches Arranjo de Antenas Métodos de Alimentação Conclusão Resultados Experimentais Introdução Modelagem Neural de Superfícies Seletivas de Freqüência Modelagem Neural de Antenas de Microfita tipo E-Shaped Modelagem Neural de Antenas de Microfita com patch afilado Modelagem Neural de Arranjo TSA Conclusões 60 Referências bibliográficas 63

9 Lista de Figuras 2.1 Neurônio perceptron Exemplo de uma função tangente hiperbólica Exemplo de configuração típica de uma rede perceptron de múltiplas camadas Exemplo de configuração típica de uma rede RBF Exemplo de uma função de base radial do tipo sample Exemplos de tipos de células condutoras utilizadas em superfícies seletivas de freqüência. (a) Elementos patches e (b) Elementos de abertura Exemplos de patches utilizados em FSS Exemplo de sistema de medição de FSS Exemplo de uma aplicação de Superfícies Seletivas de Freqüências Antena de Microfita com patch retangular Exemplos dos patches condutores mais comuns Geometria de um patch E-Shaped Geometria de um patch afilado Exemplo de um arranjo TSA. Os elementos são separados por hastes metálicas e o arranjo é suportado por um plano terra em z = -t Alimentação através de uma linha de microfita Alimentação utilizando cabo coaxial Alimentação utilizando acoplamento por abertura Alimentação através de acoplamento por proximidade eletromagnética Exemplo de uma estrutura FSS Resposta da rede MLP para diferentes valores de h Evolução do erro da rede MLP para o primeiro conjunto de treinamento Erro de treinamento do segundo exemplo iii

10 5.5 Resposta da rede MLP para diferentes valores de L em uma estrutura freestanding Resposta da rede MLP para diferentes valores de w Erro de treinamento do terceiro exemplo Resposta da rede MLP para diferentes valores de ǫ r Erro de treinamento para exemplo da variação de ǫ r Saída da rede MLP para diferentes valores de L Erro ao longo do processo de aprendizagem do quinto conjunto de treinamento Comparação entre dados medidos e simulados Exemplo de um patch E-shaped Conjunto de treinamento utilizada na modelagem da antena E-Shaped Curva de aprendizagem para o conjunto de treinamento da antena E-Shaped Generalização da rede treinada com dados da antena E-Shaped Exemplo de um patch afilado Resultados da RNA para o conjunto de treinamento ( ), e comparação com MoM ( ) Resultados da RNA para valores fora do conjunto de treinamento ( ), e comparação com MoM ( ) Erro durante o processo de treinamento da modelagem da antena de patch afilado Exemplo de uma antena slot utilizada no arranjo TSA, todas as dimensões estão em cm Resposta da rede para o conjunto de treinamento ( ), resultados para dados não usados na fase de treinamento ( ) e a comparação com o MoM ( )

11 Lista de Tabelas 2.1 Comparação entre geração de dados medidos e simulados Funções de ativação mais utilizadas Dados da geometria e treinamento do 1 o conjunto de FSS Dados da geometria e treinamento do 2 o conjunto de FSS (Freestanding) Dados da geometria e treinamento do 3 o conjunto de FSS Dados da geometria e treinamento do 4 o conjunto de FSS Dados da geometria e treinamento do 5 o conjunto de FSS Parâmetros estruturais da antena planar com fendas paralelas Parâmetros estruturais da antena planar com patch afilado v

12 Lista de Símbolos e Abreviaturas α η Γ λ σ σ θ ϕ() BP d E() E i E r E t E med I Termo momento Valor de atualização dos pesos sinápticos Coeficiente de aprendizagem Coeficiente de reflexão Comprimento de onda Gradiente Desvio Padrão Vetor de centros das Funções de Base Radial Bias Função de base radial B ackpropagation Vetor de saídas desejadas Função Custo Onda plana incidente Onda plana refletida Onda plana transmitida Energia média do erro quadrático Vetor de entrada da rede vi

13 O Rprop T T r w x y y () ANN CPW EBG FDTD FEM FSS MLP MoM RBF RF RFID RNA TSA Vetor de saída da rede Resilient BackPropagation Coeficiente de transmissão Conjunto de treinamento Vetor de pesos sinápticos Vetor de parâmetros de entrada Vetor de comportamento dos dispositivos Aproximação do Modelo Neural para vetor de comportament y Artificial Neural Network Coplanar Waveguide Eletromagnetic Bandgap Finite Difference Time Domain Finite Element Method Frequency Selective Surface Multilayer Perceptron Method of Moments Radial Basis Function Rádio Freqüência Radio Frequency Identification Redes Neurais Artificiais Tapered Slot Array

14 Resumo Este trabalho tem como principal objetivo a aplicação de Redes Neurais Artificiais, RNA, na resolução de problemas de dispositivos de RF/microondas, como por exemplo a predição da resposta em freqüência de algumas estruturas em uma região de interesse. As Redes Neurais Artificiais se apresentam como uma alternativa aos métodos atuais de análise de estrutura de microondas, pois são capazes de aprender, e o mais importante generalizar o conhecimento adquirido, a partir de qualquer tipo de dado disponível, mantendo a precisão da técnica original utilizada e aliando o baixo custo computacional dos modelos neurais. Por esse motivo, as redes neurais artificiais são cada vez mais utilizadas para a modelagem de dispositivos de microondas. São utilizados neste trabalho os modelos Perceptron de Múltiplas Camadas e de Funções de Base Radiais. São descritas as vantagens/desvantagens de cada um desses modelos, assim como os algoritmos de treinamento referentes a cada um deles. Dispositivos planares de microondas, como Superfícies Seletivas de Freqüências e as antenas de microfita, ganham cada vez mais destaque devido às necessidades crescentes de filtragem e separação de ondas eletromagéticas e à miniaturização de dispositivos de Rádio-Freqüência. Por isso é de importância fundamental o estudo dos parâmetros estruturais desses dispositivos de forma rápida e precisa. Os resultados apresentados, demonstram as capacidades das técnicas neurais para modelagem de Superfícies Seletivas de Freqüência e antenas. Palavras-chave: Dispositivos de Microondas, Redes Neurais Artificiais, Superfícies Seletivas de Freqüência, Antenas de Microfita. viii

15 Abstract This work has as main objective the application of Artificial Neural Networks, ANN, in the resolution of problems of RF/microwaves devices, as for example the prediction of the frequency response of some structures in an interest region. Artificial Neural Networks, are presently a alternative to the current methods of analysis of microwaves structures. Therefore they are capable to learn, and the more important to generalize the acquired knowledge, from any type of available data, keeping the precision of the original technique and adding the low computational cost of the neural models. For this reason, artificial neural networks are being increasily used for modeling microwaves devices. Multilayer Perceptron and Radial Base Functions models are used in this work. The advantages/disadvantages of these models and the referring algorithms of training of each one are described. Microwave planar devices, as Frequency Selective Surfaces and microstrip antennas, are in evidence due the increasing necessities of filtering and separation of eletromagnetic waves and the miniaturization of RF devices. Therefore, it is of fundamental importance the study of the structural parameters of these devices in a fast and accurate way. The presented results, show to the capacities of the neural techniques for modeling both Frequency Selective Surfaces and antennas. Keywords: Microwave Devices, Artificial Neural Networks, Frequency Selective Surfaces, Microstrip Antennas. ix

16 Capítulo 1 Introdução O avanço tecnológico ocorrido nos últimos anos no desenvolvimento de estruturas e dispositivos com tecnologia planar decorre da necessidade crescente de se conceber circuitos, com dimensões e peso cada vez menores, para as mais diversas aplicações (na área aeroespacial, nas comunicações sem fio, em redes de sensores, no rastreio de produtos e animais - RFID, na terapia e tratamento clínico, etc) [Campos, 1999] [REDPRAIRIE, 2003]. Nas áreas aeroespaciais e de comunicações, observa-se que uma atenção especial tem sido dedicada ao estudo de superfícies seletivas de freqüência (Frequency Selective Surfaces - FSS) [Campos et al., 2002] As superfícies seletivas de freqüência são estruturas periódicas bidimensionais que se comportam como filtros eletromagnéticos passa-alta, passa-baixa ou passa-faixa, de acordo com sua configuração. As estruturas periódicas têm um grande número de aplicações e têm contribuído significativamente para melhorar o desempenho dos circuitos de comunicações com destaque especial para a sua utilização nos sistemas de antenas de missões espaciais como Voyager, Galileo e Cassini [Romeu and Ramhmat- Samii, 2000]. Antenas em tecnologia planar (microfita) são muito utilizadas devido as suas várias vantagens como tamanho, peso, facilidade de construção, conformidade e facilidade de integração com circuitos impressos, além de apresentarem bom desempenho elétrico [Yang et al., 2001]. Atualmente essas antenas estão embutidas em diversos aparelhos elétricos/eletrônicos usados na comunicação via rádio e em estações de transmissão/recepção. Devido a todas essas características esse modelo de antena tem sido utilizado em várias aplicações comerciais e militares como antenas de celulares, dispositivos Bluetooth, atividades biomédicas, aviões, satélites e mísseis [Balanis, 1997]. 1

17 CAPÍTULO 1. INTRODUÇÃO 2 Apesar das superfícies seletivas de freqüência e antenas de microfita serem estruturas pequenas e de simples construção, muitas configurações desses dispositivos apresentam complexidades que dificultam a análise através de métodos eletromagnéticos convencionais (Método da Linha de Transmissão, Potenciais Auxiliares, etc.), ou exigem um elevado custo computacional das técnicas numéricas (Método dos Momentos, Elementos Finitos, etc.), apresentando assim um cenário onde a utilização de redes neurais artificiais para resolução de determinados problemas torna-se uma alternativa aos métodos tradicionais [Gupta and Zhang, 2000]. As Redes Neurais, também chamadas de Redes Neurais Artificiais (RNAs), são sistemas processadores de informação inspirados na habilidade do cérebro humano de aprender de observações e generalizar por abstração. O fato das redes neurais artificiais serem capazes de aproximar relações de entrada/saída arbitrárias [Silva, 2002] tem levado a sua utilização para aplicações totalmente diferentes, resultando no seu uso nas mais diversas áreas como reconhecimento de padrões, processamento de voz, controle, aplicações médicas e muitas outras. A introdução de redes neurais no campo do eletromagnetismo marca o nascimento de uma alternativa não convencional para problemas de projetos e modelamentos de estruturas [Gupta and Zhang, 2000]. Diversas características interessantes, sobre redes neurais artificiais, são apresentadas [Silva, 2002]: Nenhum conhecimento sobre o mapeamento é necessário para o desenvolvimento de uma RNA. As relações são inferidas através de exemplos de treinamento. As RNAs podem generalizar, o que significa que elas são capazes de responder a exemplos novos, dentro da região de interesse, definida na fase de treinamento. As Redes Neurais Artificiais, teoricamente, são capazes de aproximar qualquer mapeamento contínuo não linear. Outra vantagem da utilização de redes neurais artificiais para a solução de problemas eletromagnéticos é a facilidade de incorporação de perdas reais ao projeto, uma vez que uma rede neural treinada através de dados medidos de uma estrutura irá conter intrisicamente valores reais relativos a distúrbios causados por interferências, perdas relativas aos processos de construção, medição e outros. Obtendo dessa forma modelos mais precisos do comportamento dos dispositivos em situações reais. A partir do conhecimento das capacidades das redes neurais artificiais, modelos foram implementados e testados com o objetivo de representar os tipos específicos

18 CAPÍTULO 1. INTRODUÇÃO 3 de estruturas citadas anteriormente. Os dispositivos escolhidos para o modelamento foram superfícies seletivas de freqüência formadas por elementos do tipo patch sobre um substrato dielétrico, antenas de microfita retangulares de fendas paralelas incorporadas sobre o patch condutor [da Silva and D Assunção, 2006] [Yang et al., 2001], antenas de microfita com patch afilado, e arranjo de antenas slot com fendas (Tapered Slot Array - TSA) [Chio and Schaubert, 2000]. As redes neurais artificiais aplicadas a problemas de eletromagnetismo podem ser treinadas a partir de diversos tipos de dados, que podem ser obtidos através de simulações ou medições. Neste trabalho, são apresentados os resultados obtidos utilizando as duas opções, para o caso da FSS [Campos, 1999] e da antena afilada optou-se por utilizar dados simulados obtidos através do método dos momentos. No caso da antena de microfita com fendas, o treinamento das redes neurais artificiais foi executado utilizando amostras de valores medidos. Em relação ao arranjo TSA os dados foram obtidos a partir de resultados encontrados na literatura [Chio and Schaubert, 2000]. São apresentados no Capítulo 2 os conceitos de Redes Neurais Artificiais, comparações entre os modelos MLP (Perceptron de múltiplas camadas) e RBF (Funções de Base Radial), descrição dos algoritmos de treinamento utilizados durante o trabalho, comparação entre a geração de dados medidos e simulados. Nos Capítulos 3 e 4, são descritos os comportamentos eletromagnéticos das Superfícies Seletivas de Freqüência e das antenas de microfita, suas aplicações, técnicas de medição, configurações e aplicações. Apresentando os dispositivos modelados no trabalho. No Capítulo 5, são apresentados os resultados obtidos através dos modelos neurais para a modelagem de cinco estruturas FSS, para as antenas de microfita com fendas paralelas, para antena planar com patch afilado e para o arranjo de antenas slot, bem como, a evolução do erro de aprendizagem de cada rede neural artificial treinada. As conclusões e sugestões para a continuidade deste trabalho são apresentadas no Capítulo 6.

19 Capítulo 2 Redes Neurais Artificiais 2.1 Introdução Na sua forma mais geral, uma rede neural é uma máquina que é projetada para modelar a maneira como o cérebro realiza uma tarefa particular ou função de interesse. A rede é normalmente implementada utilizando-se componentes eletrônicos ou é simulada por programação em um computador. Para alcançarem bom desempenho, as redes neurais empregam uma interligação maciça de células computacionais simples denominadas neurônios ou unidades de processamento [Haykin, 2001]. Em 1943, McCulloch, um neurobiologista, e Pitts, um estatístico, publicaram um artigo intitulado: A logical calculus of ideas imminet in nervous activity. Esse artigo inspirou o desenvolvimento do computador digital. Aproximadamente na mesma época, Frank Rosenblatt também motivado pelo mesmo artigo iniciando sua pesquisa sobre modelamento do olho humano, que eventualmente levou à primeira geração de redes neurais artificiais, conhecidas como perceptron [Hu and Hwang, 2002]. 2.2 Redes Neurais Artificiais e Eletromagnetismo As redes neurais artificiais se apresentam como modelos alternativos para o projeto e modelagem de circuitos e estruturas que trabalham na faixa de microondas. A capacidade de aprendizagem e generalização de dados podem produzir uma ferramenta rápida e eficiente para circuitos integrados de microondas, mesmo quando as formulações teóricas não estão disponíveis. Trabalhos recentes têm utilizado as redes neurais artificiais para o modelamento de linhas de microfita, descontinuidades 4

20 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS 5 CPW, projeto e análise de antenas [Chistodoulou and Georgiopoulos, 2001]. Uma vez treinados com um conjunto de dados relevantes os modelos neurais são computacionalmente mais eficientes do que métodos eletromagnéticos e mais precisos que os métodos empíricos. A principal dificuldade das técnicas que utilizam redes neurais artificiais é a necessidade de um número de amostras relativamente grande, uma vez que as simulações/medições devem executar várias combinações de características do dispositivo. 2.3 Modelagem Neural de Dispositivos de Microondas Seja, x um vetor que contém os parâmetros de um dispositivo de microondas qualquer, e y um vetor contendo o comportamento em freqüência desse dispositivo. A relação teórica entre x e y pode ser representada como: y = f(x) (2.1) A relação f pode ser não-linear e multidimensional. Na prática o modelo teórico dessa relação pode ainda não estar disponível (como por exemplo para um novo dispositivo semicondutor), ou a teoria existente do problema pode ser complicada de implementar ou possua um elevado custo computacional [Gupta and Zhang, 2000]. Para superar essas limitações, modelos neurais para substituir a relação f, precisa e eficientemente podem ser desenvolvidos através de dados, obtidos por medições ou simulações, chamados de conjunto de treinamento. O conjunto de treinamento é caracterizado por pares de entrada/saída, {(x k, d k ), k T r }, onde d k representa a saída y simulada ou medida com relação a entrada x k, e T r o conjunto de treinamento. As saídas e entradas, então podem ser relacionadas: O modelo neural pode ser defindo: d k = f(x k ) (2.2) y = y (x, w) (2.3) onde w representa a matriz de pesos sinápticos, que são os parâmetros ajustáveis dentro de uma RNA. Para o treinamento, é necessário definir uma função erro/custo, E(w), que pode ser:

21 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS 6 E(w) = k T r E k (w) (2.4) onde E k (w) é o erro entre a predição da rede neural e a k-ésima amostra de treinamento. O treinamento de redes neurais artificiais orientadas para o modelamento de dispositivos de microondas envolve considerações sobre geração dos dados de treinamento, escolha do critério de erro e seleção do algoritmo de treinamento. Com os modelos resultantes espera-se capturar relações entrada/saída contínuas, nãolineares e multidimensionais, diferentemente de modelos neurais desenvolvidos para classificação binária de padrões e aplicações de processamento de sinais [Gupta and Zhang, 2000]. 2.4 Geração de Dados O primeiro passo no desenvolvimento de um modelo neural é a geração e coleta de dados para treinamento e teste da rede neural. Para geração de dados é necessário obter uma resposta d k para cada amostra x k de entrada. O número total de amostras, a serem geradas é escolhido de modo que o modelo neural consiga representar da melhor forma o problema original. Existem dois tipos de dados em aplicações de microondas, os medidos e os simulados. A escolha do tipo de dado gerado depende tanto da aplicação quanto da disponibilidade dos dados [Gupta and Zhang, 2000] Geração de dados a partir de medições Dados gerados a partir de medições possuem uma série de vantagens. As medições pode ser feitas mesmo se as equações para resolver o problema teoricamente não existam, ou caso a teoria seja demasiadamente complexa para implementar ou ainda exija um elevado custo computacional. Geralmente, os dados medidos representam o problema por completo incluindo efeitos secundários (efeito de bordas, conectores e elementos parasitas por exemplo). Além disso o processo de medição não envolve qualquer suposição teórica. Entretanto dados medidos também possuem desvantagens, pois algumas variáveis de projeto podem ser difíceis de medir e os equipamentos de medição possuem erros e tolerâncias.

22 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS Geração de dados a partir de simulações A obtenção de dados por simulações eletromagnéticas possui várias vantagens sobre as medições, pois nesse caso qualquer parâmetro pode ser facilmente modificado, uma vez que é necessário apenas uma alteração numérica e não envolve qualquer mudança física. Os erros introduzidos nos dados simulados devido aos arredondamentos são muito menores do que os produzidos pelas tolerâncias dos equipamentos de medição. Mas a geração de dados por simulações também apresenta suas desvantagens. Primeiro, a teoria do problema deve ser desenvolvida para implementação do simulador. Esses simuladores, geralmente, são limitados pelas suposições assumidas na análise teórica. Uma comparação entre dados medidos e simulados é apresenta na Tabela 2.1 [Gupta and Zhang, 2000]. Tabela 2.1: Comparação entre geração de dados medidos e simulados. Base de comparação Modelo Neural desenvolvido usando dados medidos Modelo Neural desenvolvido usando dados simulados Disponibilidade da Teoria/Equações do Problema O modelo pode ser desenvolvido mesmo se a Teoria do problema não é conhecida, ou é muito difícil de implementar. O modelo só pode ser desenvolvido se a Teoria/Equações do problemas forem conhecidas e possíveis de implementação. Suposições Nenhuma suposição é assumida e o modelo é capaz de incluir todo os efeitos, (efeitos de bordas, radiação espúria, etc.). Freqüentemente envolve suposições que podem limitar a capacidade do simulador. Mudança de Parâmetros A geração de dados pode gerar muitos custos e ser complicada de aplicar. É relativamente fácil de mudar qualquer parâmetro em um simulador. Praticidade para obter a resposta desejada. O modelo só pode ser desenvolvidos sobre as respostas possíveis de medição. Qualquer resposta pode ser modelada, uma vez que possa ser computada por um simulador. 2.5 Neurônio Perceptron Entre os diversos modelos de redes neurais que têm sido propostos, todos compartilham um bloco comum conhecido como neurônio. O modelo de neurônio mais utilizado é baseado no trabalho de McCulloch e Pitts e é apresentado na Figura 2.1.

23 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS 8 x 1 w 1 x j w j u a w N x N Figura 2.1: Neurônio perceptron. Na Figura 2.1, o neurônio consiste de duas partes: a função da rede e a função de ativação. A função da rede determina como as entradas da rede x j ; 1 j N são combinadas dentro do neurônio. Neste caso, uma combinação linear de pesos é utilizada, tal que: N u = w j x j + θ (2.5) j=1 onde w j ; 1 j N são os parâmetros conhecidos como pesos sinápticos. A quantidade θ é chamada de bias e é usada para determinar o limiar de atuação do modelo. A saída do neurônio, denotada por a na Figura 2.1, está relacionada à entrada u através de uma transformação linear ou não-linear chamada função de ativação [Hu and Hwang, 2002]. a = f(u) (2.6) Em vários modelos de redes neurais, diferentes funções de ativação tem sido propostas. As mais comuns são mostradas na Tabela 2.2 [Hu and Hwang, 2002]. 2.6 A Rede Perceptron de Múltiplas Camadas A rede perceptron de múltiplas camadas (Multilayer Perceptron - MLP) consiste de um modelo alimentado adiante e em camadas de neurônios perceptron. Cada neurônio na MLP possui uma função de ativação não-linear que é continuamente diferenciável. As funções de ativação mais empregadas são a função sigmóide e a tangente hiperbólica. A Figura 2.2, apresenta o comportamento de uma função tangente hiperbólica que é utilizada neste trabalho. Uma rede MLP típica é apresentada na Figura 2.3, onde cada nó representa um

24 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS 9 Tabela 2.2: Funções de ativação mais utilizadas. Função de Ativação Fórmula Derivada Comentários Sigmóide f(u) = 1 1+e u/t f(u)[1 f(u)]/t Muito utilizada; a derivada pode ser computada diretamente de f(u) Tangente Hiperbólica f(u) = tanh( u T ) (1 [f(u)]2 )/T T = Constante de Suavidade Tangente Inversa f(u) = 2 π tan 1 ( u T ) 2 πt(1+(u/t) 2 ) Menos usada Binária f(u) = j 1 se u > 0 1 se u < 0 A derivada não existe em u = 0 Gaussiana de base radial f(u) = exp ˆ u c 2 /σ 2 2(u c)f(u)/σ 2 Usada em redes de função de base radial Linear f(u) = au + b a Figura 2.2: Exemplo de uma função tangente hiperbólica. neurônio individual. Esses neurônios são organizados em camadas, denominadas primeira e segunda camadas ocultas e camada de saída. O nome camada oculta refere-se ao fato de que a resposta desses neurônios irá passar para a próxima camada de neurônios, sendo seu comportamento oculto do usuário que somente terá acesso as respostas da camada de saída. As entradas também são apresentadas a rede através de uma pseudo-camada que não possui nenhum modelo de neurônio implementado

25 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS 10 denominada camada de entrada. A Figura 2.3 ilustra uma configuração popular da rede MLP onde as interconexões estão presentes apenas entre neurônios de camadas vizinhas [Hu and Hwang, 2002]. θ θ θ I 1 I 2 O 1 Figura 2.3: Exemplo de configuração típica de uma rede perceptron de múltiplas camadas. Como pode-se notar através da Figura 2.3, uma rede neural multilayer perceptron é um processador paralelo distribuído constituído de unidades de processamento simples, que tem a propensão natural para armazenar conhecimento experimental e torná-lo disponível para o uso. Ela se assemelha ao cérebro em dois aspectos [Haykin, 2001]: O conhecimento é adquirido pela rede a partir de seu ambiente através de um processo de aprendizagem. As conexões ponderadas entre os neurônios, conhecidas como pesos sinápticos, são utilizadas para armazenar o conhecimento adquirido pela RNA Treinamento de Redes MLP A propriedade que é de importância fundamental para uma rede neural é a sua habilidade de aprender a partir de seu ambiente e de melhorar o seu desempenho através da aprendizagem. Uma rede neural aprende acerca do seu ambiente através de um processo iterativo de ajustes aplicados a seus parâmetros livres (pesos sinápticos). Um conjunto preestabelecido de regras bem-definidas para a solução de um problema de aprendizagem é denominado algoritmo de treinamento. Como se pode esperar, não há um algoritmo de aprendizagem único para o projeto de redes neurais. Em vez disso, tem-se um conjunto de ferramentas representado por uma variedade de algoritmos de treinamento, cada qual oferecendo vantagens específicas.

26 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS 11 Basicamente, os algoritmos diferem entre si pela forma como é formulado o ajuste dos parâmetros livres da rede [Haykin, 2001]. As redes MLP têm sido aplicadas com sucesso para resolver diversos problemas, através do seu treinamento de forma supervisionada com um algoritmo muito conhecido como algoritmo de retropropagação de erro. Basicamente, a aprendizagem por retropropagação de erro consiste de dois passos através das diferentes camadas da rede: um passo para frente, a propagação, e um passo para trás, a retropropagação. No passo para frente, um padrão de atividade (vetor de entrada) é apresentado a camada de entrada da rede e seu efeito se propaga adiante camada por camada. Finalmente, um conjunto de saídas é produzido como a resposta real da rede. Durante o passo de propagação os pesos sinápticos da rede são todos fixos. Durante o passo para trás, por outro lado, os pesos sinápticos são todos ajustados de acordo com uma regra de correção de erro. Especificamente, a resposta real da rede é subtraída de uma resposta desejada para produzir um sinal de erro. Este sinal de erro é então propagado para trás através da rede, contra a direção das conexões sinápticas. Os pesos são ajustados para fazer com que a resposta real da rede se mova para mais perto da resposta desejada, em um sentido estatístico. O algoritmo de Retropropagação de erro é também referido na literatura como algoritmo backpropagation [Haykin, 2001]. Nesta seção serão apresentados os algoritmos que foram utilizados nos processos de treinamento das redes neurais artificiais utilizadas no trabalho. Algoritmo de Treinamento Backpropagation O algoritmo de treinamento por retropropagação é um método de aprendizagem supervisionada, ou seja, é necessário o conhecimento prévio de relações de entrada/saída de forma que possam ser utilizadas para o treinamento da rede. Considere um conjunto de dados de treinamento formados pelo vetor de entradas representado por x, em que x = [x 1, x 2,...,x i,...,x I ], e que o vetor de respostas desejadas representado por d, onde d = [d 1, d 2,...,d k,...,d K ]. O objetivo do processo de treinamento é que a resposta da rede, representada aqui por y, onde y = [y 1, y 2,...,y k,...,y K ], seja próxima ao vetor d. Na iteração n, onde o n-ésimo padrão de treinamento, x(n), é apresentado à rede, o sinal de erro na saída do neurônio k é dado por: e k = d k (n) y k (n) (2.7)

27 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS 12 Somando-se os valores instantâneos da energia do erro de todos os neurônios da camada de saída, obtém-se o valor instantâneo da energia do erro, como se segue: E(n) = 1 2K K e k (n) 2 (2.8) k=1 A energia média do erro quadrático é obtida somando-se os E(n) para todas as iterações e então normalizando em relação ao número total de exemplos, N, como expressado a seguir: E med = 1 N N n=1 E(n) = 1 2N N n=1 k=1 K e k (n) 2 (2.9) A energia média do erro quadrático, E med, é função de todos os parâmetros livres da rede, e representa a função de custo como uma medida do desempenho da aprendizagem. Cada iteração do algoritmo é realizada com o objetivo de minimizar a função custo, ou seja, o vetor dos pesos sinápticos, w, é ajustado através de um processo de otimização. O método do gradiente decrescente é um dos processos de otimização mais comumente usados para treinar redes MLP, e é descrito como segue: w = η E(n) (2.10) em que η é a taxa de aprendizagem. A partir dos cálculos dos gradientes locais da função custo, E(n), na camada de saída, k, e na camada oculta, j, obtêm-se as relações para os ajustes dos pesos sinápticos [Haykin, 2001]: Para a camada de saída w kj = ηe k (n)g k(v k (n))y j (2.11) Para a camada oculta w ji = g j (v j(n)) K e k (n)g k (v k (n))w kj (n)x i (2.12) k

28 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS 13 sendo g j e g k as derivadas das funções de ativação g j e g k referentes as camadas ocultas e de saída, respectivamente, e v j o produto interno entre os pesos e as entradas do neurônio j. Apesar desta regra de aprendizado ser bastante simples, a escolha de uma taxa de aprendizado apropriada é uma tarefa difícil. Outro problema do método do gradiente é a influência da derivada parcial nos valores dos ajustes calculados. Além disso, mesmo que sob certas circunstâncias a convergência para um mínimo (local) possa ser provada, não há garantias que o mínimo global da função seja encontrado. Uma idéia inicial para tornar o aprendizado mais estável, reduzindo as oscilações dos pesos durante o treinamento da rede MLP, é a inclusão do termo momento: w(n) = η E(n) + α w(n 1) (2.13) A constante positiva α controla a influência do ajuste anterior sobre o ajuste atual dos pesos, é denominada termo momento. Deve-se observar que, apesar de ser bem aplicada em muitas tarefas de aprendizado, esta não é uma técnica geral para ganhos de estabilidade e aceleração da convergência. É comum, no uso do método do gradiente com o termo momento, reduzir a taxa de aprendizado para evitar instabilidade no processo de aprendizado [Silva, 2002]. Após a determinação de w, a atualização dos pesos se resume a: w(n + 1) = w(n) + w (2.14) Algoritmo de Treinamento Rprop O Rprop (Resilient BackPropagation) é um eficiente esquema de aprendizagem que executa a adaptação direta da atualização dos pesos sinápticos baseado na informação do gradiente local. Um diferença crucial em relação ao algoritmo anterior é que o esforço da adaptação não é prejudicado pelo comportamento do gradiente. Para diminuir esse comportamento, é introduzido um valor de atualização ij para cada peso sináptico, que determina unicamente a amplitude da atualização do peso. Essa atualização adaptativa evolui durante o processo de treinamento baseada na visão local da função custo, E, de acordo com a seguinte regra de aprendizagem [Riedmiller and Braun, 1993]:

29 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS 14 (t) ij = η + (t 1) ij η (t 1) ij (t 1) ij E(t) w ij > 0 E(t) w ij < 0 caso contrário se E(t 1) w ij se E(t 1) w ij (2.15) onde 0<η < 1 < η + e t representa o número de épocas no treinamento em lote. Seguindo a regra anterior, toda vez que a derivada parcial correspondente ao peso w ij muda seu sinal em relação ao passo de tempo anterior, indica que a última atualização foi muito alta e o algoritmo passou por um mínimo local, então o valor de atualização ij é decrescido pelo fator de η. Caso a derivada mantenha o mesmo sinal, o valor atualização é incrementado de forma a acelerar a convergência. Uma vez que o valor de atualização, ij, para cada peso é adaptado, a atualização dos pesos segue uma regra simples: se a derivada for positiva (aumentando o erro), o peso será reduzido pelo seu valor de atualização, caso a derivada seja negativa, o valor de atualização passará então a ser positivo [Riedmiller and Braun, 1993]: w (t) ij = (t) ij se E(t) w ij > 0 + (t) ij se E(t) w ij < 0 0 caso contrário (2.16) w (t+1) ij = w (t) ij + w(t) ij (2.17) No entanto, existe uma exceção: se a derivada parcial trocar de sinal, isto é o passo anterior for grande demais e o mínimo foi ultrapassado, então a atualização do peso, w ij, é revertido: w (t) ij = w (t 1) ij se E(t 1) w ij E(t) w ij < 0 (2.18) Por causa disso, a derivada supostamente deverá mudar seu sinal novamente no passo seguinte, para evitar que ocorra uma punição novamente do valor de atualização, não deve haver adaptação do valor de atuação no passo posterior, e uma forma prática de evitar isso é fazendo com que E(t 1) w ij = 0. Os valores de atualização e os pesos somente são modificados depois que todo o conjunto de treinamento é apresentado a rede, o que caracteriza aprendizagem por lote ou batch [Riedmiller and Braun, 1993]. Inicialmente, todos o valores de ajuste são iguais à constante 0, que é um dos parâmetros do Rprop. Desde que 0 determina diretamente a amplitude do primeiro

30 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS 15 ajuste dos pesos, ele pode ser escolhido de acordo com a magnitude dos pesos iniciais, por exemplo 0 = 0, 1 [Riedmiller and Braun, 1993]. A escolha desse valor não é crítica, já que seu valor é adaptado enquanto o treinamento ocorre [Silva, 2002]. No treinamento da rede através do algoritmo Rprop, a fim de se evitar uma variação excessiva dos pesos, define-se um parâmetro para o valor máximo de ajuste, max. De forma a evitar esse fenômeno o valor max = 50 foi sugerido por [Riedmiller and Braun, 1993]. Os fatores de acréscimo e decréscimo são fixados em η + = 1, 2 e η = 0, 5. Estes valores são baseados em considerações teóricas e empíricas. Sendo assim o número de parâmetros fica reduzido a dois, 0 e max [Riedmiller and Braun, 1993] [Silva, 2002]. 2.7 Redes de Função de Base Radial As redes Neurais de função de base radial (Radial Base Function - RBF) são casos especiais de redes multicamadas alimentadas adiante. Para a construção de uma rede de função de base radial em sua forma mais básica, são necessárias três camadas com papéis totalmente diferentes. A camada de entrada é constituída por nós de alimentação que conectam a rede ao seu ambiente. A segunda camada, a única camada oculta da rede, aplica uma transformação não-linear do espaço de entrada para o espaço oculto; na maioria das aplicações, o espaço oculto é de alta dimensionalidade. A camada de saída é composta por ponderações lineares (pesos sinápticos), que fornecem a resposta da rede ao padrão de sinal aplicado na entrada [Haykin, 2001]. I 1 ϕ() θ I 2 ϕ() O 1 I 3 ϕ() O 1 I 4 ϕ() entrada da rede camada oculta camada de saida Figura 2.4: Exemplo de configuração típica de uma rede RBF

31 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS 16 Para um conjunto de entradas, I, a saída de uma rede RBF pode ser expressa como se segue [Haykin, 2001] J O k = w jk ϕ(x) (2.19) j=0 onde w jk representa os pesos sinápticos referentes à camada de saída e ϕ() funções de base radial, que realizam a transformação não-linear através da norma entre um centro pré-determinado e os dados de entrada. Há uma classe grande de funções de base radial. As seguintes funções são de particular interesse no estudo de redes neurais artificiais: [Silva, 2002] Função Multiquadrática ϕ(i) = ( I 2 + c 2 j) 1/2 (2.20) Função Multiquadrática Inversa ϕ(i) = 1 ( I 2 + c 2 j) 1/2 (2.21) Função Gaussiana Função Sample ) ϕ(i) = exp ( I 2 2σ 2 j (2.22) ϕ(i) = sen(σ j I c j 2 σ j I c j 2 (2.23) A Figura 2.5 apresenta o comportamento de uma função sample. Existem diferentes estratégias de aprendizagem que podem ser usadas no projeto de uma rede RBF. O ponto importante é que as camadas de uma rede RBF realizam tarefas diferentes, e assim é razoável separar a otimização das camadas ocultas e da saída da rede usando técnicas diferenciadas e talvez operando em escalas de tempo distintas [Haykin, 2001]. Dentre os tipos de treinamento da rede RBF, destacamse [Silva, 2002]: Seleção auto-organizada dos centros. Seleção aleatória dos centros. Seleção supervisionada dos centros.

32 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS Figura 2.5: Exemplo de uma função de base radial do tipo sample Treinamento utilizando seleção auto-organizada dos centros Na seleção auto-organizada dos centros é necessário a utilização de um algoritmo de agrupamento que particione o conjunto de treinamento em subgrupos, cada um dos quais o mais homogêneo possível. Uma das soluções é o uso do algoritmo das k-médias, que coloca os centros das funções de base radial apenas naquelas regiões do espaço de entrada onde os dados mais significativos estão presentes. O algoritmo das k-médias atua como segue [Haykin, 2001]: 1. Inicialização. Escolha valores aleatórios para os centros iniciais c k (0); a única restrição é que estes valores iniciais sejam diferentes. 2. Amostragem. Retire um vetor x do espaço de entrada. O vetor x é apresentado à entrada do algoritmo na iteração n. 3. Casamento de Similaridade. Considere que k(x) represente o índice do centro com o melhor casamento com o vetor de entrada x. Encontre k(x) usando a distância Euclidiana mínima como critério para determinar qual centro será escolhido. 4. Ajuste os centros das funções de base radial, usando a regra de atualização: { c k (n) + η[x(n) c k (n)], k = k(x) c k (n + 1) = (2.24) c k (n), caso contrário onde η é um parâmetro da taxa de aprendizagem no intervalo de 0 < η < Continuação. Incremente n de 1, volte para o passo 2 e continue o procedimento até que não sejam mais observadas modificações nos centros c k.

33 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS 18 O algoritmo de agrupamento de k-médias descrito é, de fato, um caso especial de um processo de aprendizagem competitiva conhecido como mapa auto-organizável [Haykin, 2001]. Com os centros já determinados deve-se então calcular os valores dos desviospadrão, σ, que representam o espalhamento das funções de base radial e que podem ser calculados com a seguinte fórmula: σ = d max (2.25) 2m1 onde d max e m 1 correspondem a distância máxima entre os centros escolhidos e a quantidade de centros, respectivamente. Os únicos parâmetros que realmente são aprendidos nesta abordagem são os pesos lineares referentes à camada perceptron da rede RBF. Neste caso, de forma a utilizar um procedimento direto para a determinação da matriz de pesos, w, foi utilizado um procedimento conhecido como método da pseudoinverva. No método da pseudoinversa, é possível determinar a matriz de pesos, w, em um único passo uma vez que se tenha conhecimento das respostas desejadas, d, como segue: w = G + d (2.26) A matriz G + é a pseudoinversa da matriz G, que é a resposta da camada RBF, após o treinamento, para todos os valores de entrada I, sendo definida por : G = g ij = ϕ(i j, c i ), j = 1, 2,..., N; i = 1, 2,..., m 1 (2.27) Onde N é a quantidade de vetores de treinamento da rede, e I j é o j-ésimo vetor de entrada Treinamento utilizando seleção supervisionada dos centros Nessa abordagem, todos os parâmetros livres da rede RBF são ajustados no processo de aprendizagem. O processo de aprendizagem, através da seleção supervisionada dos centros,ao qual uma rede de função de base radial é submetida, pode ser visualizado como segue. Os pesos associados com as unidades de saída da rede tendem a evoluir em

34 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS 19 uma escala de tempo diferente comparada às funções de ativação não-lineares das unidades ocultas. Assim, como as funções de ativação da camada oculta evoluem lentamente de acordo com alguma estratégia de otimização não-linear, os pesos da camada de saída se ajustam rapidamente através de uma estratégia de otimização linear. O método do gradiente descendente pode ser usado em um procedimento de correção do erro [Haykin, 2001], de modo a ajustar os pesos sinápticos, w j, o vetor de centros, c j e os desvios padrão, σ j, das funções de base radial. Segundo o método do gradiente descendente, o ajuste dos pesos sinápticos é proporcional ao gradiente negativo da função custo, dessa forma tem-se para o ajuste dos pesos sinápticos: [Fernandes, 2004] w j = η w E(n) w j = η w K e k (n)ϕ j (x(n)) (2.28) Para o ajuste dos centros, mais uma vez aplicando o método do gradiente, tem-se: k=1 c j = η c E(n) c j K = 2η c w j (n) e k (n)ϕ j (x(n))σ j (x(n) c j ). (2.29) k=1 De maneira bem similar, obtém-se a expressão para o ajuste dos desvios padrão das funções de ativação, definida abaixo: σ 2 j = η σ E(n) σ 2 j K = 2η σ w j e k (n)ϕ j (x(n)) x c j 2 k=1 σ 2 j (2.30) Essa estratégia de aprendizagem supervisionada dos centros e das variâncias exige um esforço computacional mais elevado que as outras estratégias. [Fernandes, 2004]. 2.8 Comparação entre redes MLP e RBF Redes perceptron de múltiplas camadas e redes de função de base radial pertencem a uma classe geral de redes neurais alimentadas adiante, onde o processamento da informação na estrutura da rede segue apenas uma direção, dos neurônios de entrada aos de saída. No entanto, as funções de ativação presentes nos neurônios ocultos nas MLP e nas RBF possuem comportamentos diferentes. Primeiramente, a função de ativação de cada neurônio oculto em uma rede multilayer perceptron,

35 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS 20 geralmente, processa o produto interno entre o vetor de entrada e o vetor de pesos sinápticos do neurônio em questão. Por outro lado, a função de ativação em cada neurônio oculto em uma rede RBF processa a norma entre os vetores de entrada e os centros de cada neurônio. Dessa forma, redes MLP constroem aproximações globais para o mapeamento não-linear entre entrada/saída. Conseqüentemente, elas são capazes de generalizar em regiões do espaço de entrada onde há poucos ou nenhum dado de treinamento disponível. Inversamente redes RBF desenvolvem aproximações locais para as não-linearidades entre a entrada e a saída. Como resultado, redes de função de base radial aprendem rapidamente. Em redes RBF um neurônio oculto influencia a saída da rede apenas para as entradas que estão próximas ao seu centro, requerendo assim um maior número de neurônios ocultos para cobrir todo o espaço de entrada [Gupta and Zhang, 2000]. 2.9 Overlearning e Underlearning A habilidade de uma rede neural artificial de estimar uma saída, O, precisamente quando lhe é apresentada uma entrada, I, nunca utilizada durante o processo de treinamento é chamada de capacidade de generalização. A capacidade de generalização está diretamente ligado às condições de treinamento da rede que podem ser divididas em [Gupta and Zhang, 2000]: Overlearning é um fenômeno no qual a RNA memoriza os dados de treinamento mas não consegue generalizar corretamente. Em outras palavras, o erro de treinamento é pequeno, mas o erro de validação é muito maior que o erro de treinamento. Possíveis razões para essa situação, incluem a presença de muitos neurônios ocultos ou insuficientes dados de treinamento. Neurônios em demasia nas camadas ocultas acarretam muita liberdade na relação entrada/saída da rede. Underlearning, por outro lado, é uma situação em que a rede neural artificial encontra dificuldades até mesmo na aprendizagem dos dados de treinamento. Provavelmente isso ocorra devido a insuficiência de neurônios nas camadas ocultas, poucos dados de treinamento ou o procedimento de treinamento ficou preso em um mínimo local. Soluções sugeridas, são a adição de neurônios ocultos ao modelo, dar continuidade ao treinamento por um período de tempo mais prolongado e causar algum tipo de perturbação nos valores da matriz de peso, w, dessa forma tentando escapar de algum mínimo local.

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

MODELAGEM NEURAL DA FREQUÊNCIA DE RESSONÂNCIA DE ANTENAS PATCHES EM MICROFITA QUASE-FRACTAL

MODELAGEM NEURAL DA FREQUÊNCIA DE RESSONÂNCIA DE ANTENAS PATCHES EM MICROFITA QUASE-FRACTAL MODELAGEM NEURAL DA FREQUÊNCIA DE RESSONÂNCIA DE ANTENAS PATCHES EM MICROFITA QUASE-FRACTAL Adaildo G. D ASSUNÇÃO (1); Elder Eldervitch C. DE OLIVEIRA (2); Ronaldo de A. MARTINS (3); João Bosco L. de OLIVEIRA

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

COMPARAÇÃO ENTRE DIFERENTES ESTRUTURAS DE REDES NEURAIS NO PROBLEMA PRESA-PREDADOR 1

COMPARAÇÃO ENTRE DIFERENTES ESTRUTURAS DE REDES NEURAIS NO PROBLEMA PRESA-PREDADOR 1 COMPARAÇÃO ENTRE DIFERENTES ESTRUTURAS DE REDES NEURAIS NO PROBLEMA PRESA-PREDADOR 1 Márcia Da Silva 2, Eldair Fabricio Dornelles 3, Rogério S. M. Martins 4, Édson L. Padoin 5. 1 Pesquisa desenvolvida

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

4 Redes Neurais Artificiais

4 Redes Neurais Artificiais 4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características

Leia mais

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Aula 1 Introdução - RNA

Aula 1 Introdução - RNA Aula 1 Introdução - RNA Sumário 1- Conceitos Iniciais; 2- Neurônio Biológico; 3- Neurônio Artificial; 4- Funções de Ativação; 5- Comparação Neurônio Biológico e Artificial. 1- Conceitos Iniciais - Computadores

Leia mais

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

Redes Neurais Artificiais (RNA)

Redes Neurais Artificiais (RNA) Redes Neurais Artificiais (RNA) Definições: 1. Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. 2. Técnica de aproximação

Leia mais

Paradigmas de Aprendizagem

Paradigmas de Aprendizagem Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

Aprendizado de Máquina Introdução às Redes Neurais Artificiais Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a

Leia mais

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão) Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica PERCEPTRON MULTICAMADAS: TÉCNICAS DE VALIDAÇÃO Prof. Dr. André A. P. Biscaro 2º Semestre de 2016 UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT Aspectos de seleção topológica de redes PMC A especificação

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe

Leia mais

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado

Leia mais

Mapas Auto-Organizáveis de Kohonen SOM

Mapas Auto-Organizáveis de Kohonen SOM Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial

Leia mais

Mapas Auto-Organizáveis de Kohonen SOM

Mapas Auto-Organizáveis de Kohonen SOM Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz

Leia mais

RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS

RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS 1 RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS Giovanni Crestan Leonardo Enomoto Araki Thiago Antonio Grandi De Tolosa Wânderson de Oliveira Assis Wilson Carlos Siqueira Lima Júnior IMT Instituto Mauá

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.1. Introdução às Redes Neurais Artificiais (RNAs) 2.1.1. Motivação

Leia mais

MODELAGEM DE UMA ANTENA PLANAR QUASE- FRACTAL UTILIZANDO REDE NEURAL ARTIFICIAL

MODELAGEM DE UMA ANTENA PLANAR QUASE- FRACTAL UTILIZANDO REDE NEURAL ARTIFICIAL 1 MODELAGEM DE UMA ANTENA PLANAR QUASE- FRACTAL UTILIZANDO REDE NEURAL ARTIFICIAL Elder Eldervitch Carneiro de Oliveira 1 Tales Augusto Carvalho de Barros 2 Pedro Carlos de Assis Júnior 3 Rodrigo César

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

SCC Capítulo 5 Perceptron Multicamadas

SCC Capítulo 5 Perceptron Multicamadas Introdução Back-propagation (BP) MLPs Convolução SCC-5809 - Capítulo 5 Perceptron Multicamadas João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes

Leia mais

Redes de Funções de Base Radial Radial Basis Functions (RBFs)

Redes de Funções de Base Radial Radial Basis Functions (RBFs) Redes de Funções de Base Radial Radial Basis Functions (RBFs) Germano C. Vasconcelos Centro de Informática - UFPE Introdução Em uma RBF, a rede é definida do ponto de vista de um problema de aproximação

Leia mais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

Considerações de Desempenho

Considerações de Desempenho Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

Redes Neurais não Supervisionadas: SOM

Redes Neurais não Supervisionadas: SOM Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais não Supervisionadas: SOM DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos

Leia mais

Variações do BP. Variações do BP. Variações do BP. Taxa de Aprendizado Adaptativa. Taxa de Aprendizado Adaptativa

Variações do BP. Variações do BP. Variações do BP. Taxa de Aprendizado Adaptativa. Taxa de Aprendizado Adaptativa A principal crítica ao algoritmo Back Propagation é o longo tempo de treinamento proposta de variações simples para acelerar o processo de aprendizado Taxa de Aprendizado Adaptativa Inicia-se com um valor

Leia mais

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

3 REDES CLÁSSICAS PERCEPTRON E ADALINE w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados

Leia mais

4 Cálculo de Equivalentes Dinâmicos

4 Cálculo de Equivalentes Dinâmicos 4 Cálculo de Equivalentes Dinâmicos 4.1. Introdução Os sistemas de potência interligados vêm adquirindo maior tamanho e complexidade, aumentando a dependência de sistemas de controle tanto em operação

Leia mais

UM NOVO MODELO DE FSS COM DOIS ELEMENTOS EM FORMA DE U OPERANDO NA BANDA X

UM NOVO MODELO DE FSS COM DOIS ELEMENTOS EM FORMA DE U OPERANDO NA BANDA X UM NOVO MODELO DE FSS COM DOIS ELEMENTOS EM FORMA DE U OPERANDO NA BANDA X Emanuele da Silva Rodrigues MONTALVÃO (1); Augusto César Pereira da Silva MONTALVÃO (2); Adaildo Gomes D ASSUNÇÃO (3); Alfrêdo

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS INTRODUÇÃO Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 REDES NEURAIS ARTIFICIAIS - RNAs Inspiradas no cérebro humano São modelos computacionais inspirados nos mecanismos

Leia mais

Back Propagation. Dicas para o BP

Back Propagation. Dicas para o BP Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem

Leia mais

4 Validação do Algoritmo

4 Validação do Algoritmo Validação do Algoritmo 59 4 Validação do Algoritmo 4.1. Introdução Nos capítulos anteriores, foi descrito um método para análise de antenas microfita. Neste capítulo, é feita a análise de um algoritmo

Leia mais

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Inteligência Artificial

Leia mais

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador.

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. Resumo: Lucas da Silva Assis Universidade Federal de Goiás lucasilvassis@gmail.com Esse trabalho apresenta

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1

Leia mais

3 INTELIGÊNCIA COMPUTACIONAL (IC)

3 INTELIGÊNCIA COMPUTACIONAL (IC) 40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por

Leia mais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP) Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.

Leia mais

Modelos de Dispositivos de Microondas e Ópticos Através de Redes Neurais Artificiais de Alimentação Direta

Modelos de Dispositivos de Microondas e Ópticos Através de Redes Neurais Artificiais de Alimentação Direta UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE Universidade Federal do Rio Grande do Norte Centro de Tecnologia Programa de Pós-Graduação em Engenharia Elétrica Modelos de Dispositivos de Microondas e Ópticos

Leia mais

Inteligência Computacional

Inteligência Computacional Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Na Aula Passada... O que é uma

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado

Leia mais

esses dispositivos proporcionam o casamento de impedâncias apenas numa faixa restrita de freqüências (Music et al., 2003). Soluções mais elaboradas

esses dispositivos proporcionam o casamento de impedâncias apenas numa faixa restrita de freqüências (Music et al., 2003). Soluções mais elaboradas 1 Introdução Com o aumento constante na demanda da eletrônica sem fio e dos sistemas de comunicações ópticas, tem-se tornado essencial a elaboração de dispositivos de alta freqüência que sejam confiáveis,

Leia mais

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann: Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Neurônio Natural Dendritos: recebe os estímulos transmitidos por outros neurônios Soma Sinapse Axônio Soma: coleta e combina informações vindas de outros neurônios Sinapse Dendrito

Leia mais

Rede Perceptron. Capítulo 3

Rede Perceptron. Capítulo 3 Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta

Leia mais

3 INTERVALOS DE CONFIANÇA

3 INTERVALOS DE CONFIANÇA 3 INTEVALOS DE CONFIANÇA 3.1 Introdução A estimativa de intervalos de confiança é utilizada para se obter medidas de incerteza dos dados analisados. A análise da incerteza de uma previsão, por exemplo,

Leia mais

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior Aula 2 Introdução Redes Neurais Prof. Dr. Sylvio Barbon Junior barbon@uel.br Sumário 1- Inteligência Artificial 2- Introdução às Redes Neurais Artificiais 3- Modelos de Redes Neurais supervisionados e

Leia mais

SCC Capítulo 4 Perceptron de Camada Única

SCC Capítulo 4 Perceptron de Camada Única Perceptron LMS SCC-5809 - Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes Neurais 1/45 Sumário Perceptron

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem

Leia mais

Neurocomputação Parte 2

Neurocomputação Parte 2 Neurocomputação Parte 2 Fabricio Breve - fbreve@gmail.com 25/09/2007 Fabricio Breve 1 REDES NEURAIS ARTIFICIAIS 25/09/2007 Fabricio Breve 2 Por que Redes Neurais? Computadores convencionais são eficientes

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que

Leia mais

REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio

REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio REDES NEURAIS Sistema Nervoso 2 O que é? É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos Engloba o cérebro Sua unidade fundamental é o neurônio Se diferencia

Leia mais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

3 Aprendizado por reforço

3 Aprendizado por reforço 3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina

Leia mais

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,

Leia mais

Por que Redes Neurais?

Por que Redes Neurais? Redes Neurais Profa. Jaqueline Brigladori Pugliesi Por que Redes Neurais? Utilizar máquinas efetivamente para resolver problemas simples (humanos) Exemplo: distinguir padrões visuais previsão do valor

Leia mais