Redes Neurais Artificiais. Capítulos 1 e 2

Documentos relacionados
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Aula 1 Introdução - RNA

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Redes Neurais Artificiais

Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

Redes Neurais Artificiais

Redes Neurais Artificiais

Redes Neurais Artificiais

Automação Inteligente de Processos e Sistemas

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Rede Perceptron. Capítulo 3

3 Redes Neurais Artificiais

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Introdução às Redes Neurais Artificiais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

2. Redes Neurais Artificiais

Classificação Linear. André Tavares da Silva.

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

REDES NEURAIS ARTIFICIAIS

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Redes Neurais Artificiais. Prof. João Alberto Fabro

Redes Neurais Noções Gerais

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO

REDES NEURAIS. Marley Maria B.R. Vellasco. ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada CONTEÚDO

INTELIGÊNCIA ARTIFICIAL

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005

Inteligência Computacional

Aula 7 RNA Redes Auto-Organizáveis de Kohonen

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

Fundamentos das Redes Neurais: exemplos em Java

Rede RBF (Radial Basis Function)

Inteligência Artificial Redes Neurais Artificiais

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Sistemas Inteligentes - Redes Neurais -

Inteligência Artificial Redes Neurais

2. Redes Neurais Artificiais

4 Redes Neurais Artificiais RNAs

Redes Neurais Artificial

Por que Redes Neurais?

4 Redes Neurais Artificiais

COMPARAÇÃO ENTRE DIFERENTES ESTRUTURAS DE REDES NEURAIS NO PROBLEMA PRESA-PREDADOR 1

Tópicos sobre Redes Neurais

Introdução às Redes Neurais Artificiais

INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO

Redes Neurais INTELIGÊNCIA ARTIFICIAL

SNP33D90 REDES NEURAIS ARTIFICIAIS

Aprendizado de Máquina (Machine Learning)

Redes Neurais Artificiais. Profa. Teresa Ludermir Sistemas Inteligentes

Redes Neurais Artificiais

Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais e Sistemas Fuzzy

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

3 INTELIGÊNCIA COMPUTACIONAL (IC)

Capítulo 1. Redes Neuronais Artificiais - Origem, história e aplicações. ADC/DEI/FCTUC/CA/Cap.1/2005 1

Redes Neurais. Conexionismo. Redes Neurais, IA e IC. Abordagem Simbólica. Apresentação da disciplina Inteligência Computacional e conexionismo

Redes Neurais não Supervisionadas: SOM

Redes Neurais Artificiais - Introdução. Visão Computacional

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

João Paulo Teixeira Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança

Introdução. O cérebro humano. O sistema nervoso biológico é formado por um conjunto extremamente

INF 1771 Inteligência Artificial

3 REDES NEURAIS ARTIFICIAIS

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Motivação, Objetivo, Definição, Características Básicas e Histórico. Neurônio Artificial, Modos de Interconexão

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

PRINCÍPIOS DE NEUROCOMPUTAÇÃO

2. Redes Neurais Artificiais

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

Redes Neurais MLP: Exemplos e Características

lnteligência Artificial Introdução a Redes Neurais Artificiais

Fundamentos de Inteligência Artificial [5COP099]

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Professor José Gomes de Carvalho Jr. Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO

Redes Neurais Artificiais (RNA)

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

ESTIMATIVA DE RADIAÇÃO SOLAR NA REGIÃO DO MACIÇO DE BATURITÉ: ABORDAGEM VIA REDES NEURAIS ARTIFICIAIS.

Redes Neurais. Motivação. Componentes do neurônio. Cérebro humano. Criar máquinas capazes de operar independentemente do homem:

Soluções de Equações Diferenciais Usando Redes Neurais de Múltiplas camadas com os métodos da Descida mais íngreme e Levenberg-Marquardt.

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

IMPLEMENTAÇÃO PARALELA DE UMA ARQUITETURA DE REDE NEURAL ARTIFICIAL DISTRIBUÍDA E REALIMENTADA 1

Transcrição:

Redes Neurais Artificiais Introdução Capítulos 1 e 2

Redes Neurais Artificiais (RNA) São modelos computacionais inspirados nos mecanismos de aprendizagem do cérebro humano. São modelos computacionais que tentam emular São modelos computacionais que tentam emular a forma com que o cérebro resolve problemas.

RNA Inspiração no cérebro humano O processamento de informações no cérebro humano é altamente complexo, não-linear e paralelo. O cérebro é constituído por aproximadamente 100 bilhões de neurônios (10 11 ) Cada neurônio é interligado em média com outros 6.000 neurônios (60 trilhões de sinapses). Número de neurônios equivale à quantidade de estrelas de via Láctea. É um dos sistemas mais complexos que é atualmente conhecido pelo ser humano

RNA Comparação entre o computador e o cérebro Computador Cérebro Tipo de Sequencial (serial) Paralelo processamento Quantidade e Um ou poucos 10 10 neurônios; complexidade d processadores 10 10 conexões/neurônio. Velocidade de 10-9 segundos 10-6 segundos processamento Eficiência energética 10-16 Joules (por 10-6 Joules (por operação/segundo) operação/segundo)

RNA: Principais características Adaptação por experiência Parâmetros internos da rede, tipicamente seus pesos sinápticos, são ajustados a partir da apresentação sucessiva de exemplos (amostras e medidas) relacionados ao comportamento do processo Capacidade de Aprendizado Aplicação de método de treinamento possibilita a rede extrair o relacionamento existente entre variáveis que compõem a aplicação. Habilidade de generalização Após o processo de treinamento, a rede é capaz de generalizar o conhecimento adquirido, id possibilitando a estimação de soluções que eram até então desconhecidas. Organização de dados Organização de dados Baseada em características marcantes de um conjunto de dados a respeito do processo, a rede é capaz de realizar sua organização interna para agrupamento de amostras que são similares/comuns.

RNA: Principais características Tolerância a falhas Devido ao elevado nível de interconexões entre neurônios artificiais, a rede torna-se um sistema tolerante a falhas quando parte de sua estrutura interna for sensivelmente corrompida. Armazenamento distribuído O conhecimento dentro da rede é realizado de forma distribuída entre as sinapses dos neurônios artificiais, permitindo-se então robustez frente a eventuais neurônios que se tornaram inoperantes. Facilidade de Prototipagem A implementação da maioria i das arquiteturas t neurais pode ser facilmente prototipadas em hardware ou em software Após o processo de treinamento, os seus resultados são normalmente obtidos por algumas operações matemáticas elementares.

Histórico das RNA 1943 McCulloch e Pitts Primeiro modelamento matemático inspirado no neurônio biológico 1949 Hebb Primeiro método de treinamento para redes neurais artificiais (regra de aprendizado de Hebb) Baseada em hipóteses e observações de caráter neurofisiológico 1957-1958 Frank Rosenblatt Desenvolvimento do primeiro neurocomputador: Mark I Perceptron o modelo Perceptron despertou interesse devido à sua capacidade em reconhecer padrões simples

Histórico das RNA 1960 Widrow & Hoff Rede Adaline (ADAptive LINear Element) Madaline Adaline múltipla, que é uma rede cujo aprendizado é fundamentado na regra Delta ou LMS (least mean square) 1969 Publicação do livro Perceptron (Minsky & Papert) Limitação de RNA constituídas por apenas uma única camada em aprender o relacionamento entre as entradas e saídas de funções lógicas bem simples como o XOR (ou-exclusivo). Impossibilidade das RNAs realizarem a correta classificação de padrões para classes não lineamente separáveis.

Histórico das RNA De 1970 a 1986 Trabalhos de Werbos (gradiente reverso), Grossberg(ART), Kohonen (mapas auto-organizáveis), Hopfield (redes recorrentes baseadas em funções de energia) 1986 livro de Rumelhart, Hinton e Williams Processamento paralelo distribuído Resolvia o problema do XOR Algoritmo Backpropagation

Potenciais áreas de aplicações de RNA Aproximador unirversal de funções Mapeiam o relacionamento entre variáveis de um sistema a partir de um conjunto conhecido de seus valores representativos Envolvem normalmente o mapeamento de processos cuja modelagem por técnicas convencionais são de difícil obtenção Necessitam de domínio específico para variáveis de entrada Controle de processos Consistem em identificar ações de controle que permitam o alcance dos requisitos de qualidade, de eficiência e de segurança do processo. Ex: controles aplicados em robótica, aeronaves, elevadores, eletrodomésticos, satélites, etc.

Potenciais áreas de aplicações de RNA Classificação de Padrões Associar um padrão de entrada (amostra) para uma das classes previamente definidas. O problema pode ser tratado possui um conjunto discreto e conhecido das possíveis saídas desejadas. Ex: reconhecimento de imagens, voz, escrita, etc. Agrupamento de dados (clusterização) Identificação e detecção de similaridades e particularidades entre os diversos padrões de entrada a fim de possibilitar seu agrupamento. Ex: identificação automática de classes (como em problemas de diagnóstico médico), compressão de dados e mineração de dados (data mining)

Potenciais áreas de aplicações de RNA Sistemas de Previsão Estimar valores futuros de um processo levando-se em consideração diversas medidas prévias observadas em seu domínio. Ex: previsão de séries temporais, mercados financeiros, climáticas, etc. Otimização de Sistemas Minimizar ou maximizar uma função custo (objetivo) obedecendo também eventuais restrições que são impostas para o correto mapeamento do problema. Ex: problemas de otmização restrita, otimização combinatorial, programação dinâmica, etc.

Potenciais áreas de aplicações de RNA Memórias Associativas Recuperar padrões corretos mesmo se os seus elementos constituintes forem apresentados de forma incerta ou imprecisa. Ex: processamento de imagens, transmissão de sinais, identificação de caracteres manuscritos, etc.

Neurônio biológico Características da célula nervosa O processamento de informações no cérebro humano é regido por elementos processadores bológicos que operam em paralelo Tem como objetivo a produção de ações apropriadas para cada uma de suas funcionalidades, como o pensar e o memorizar.

Neurônio biológico Características da célula nervosa

Neurônio biológico Características da célula nervosa

Neurônio biológico Variação do potencial de ação do neurônio Etapas de variação (potencial de ação): Característica Dimensão Massa do cérebro 1,5 kg Energia consumida 20% Comprimento do neurônio 100μm Potencial de repouso Potencial de ativação Potencial de ação (máximo) -70 mv -55 mv 35 mv

Representação do neurônio artificial Modelo matemático do neurônio artificial Sinais de entrada: {x 1, x 2,, x n } n u w i 1 y g(u( ) i x i Pesos sinápticos: {w 1, w 2,, w n } Combinador linear: {Ʃ} Limiar de ativação: {θ} Potencial de ativação: {u} Função de ativação: {g} Sinal de saída: {y}

Neurônio artificial resumo do funcionamento 1. Apresentação de um conjunto de valores que representam as variáveis de entrada do neurônio; 2. Multiplicação de cada entrada do neurônio pelo seu respectivo peso sináptico 3. Obtenção do potencial de ativação produzido pela soma ponderada dos sinais i de entrada, subtraindo-se o limiar i de ativação 4. Aplicação de uma função de ativação apropriada, tendo-se como objetivo o limitar a saída do neurônio 5. Compilação da saída a partir da aplicação da função de ativação neural em relação ao seu potencial de ativação u y n w i 1 1 i g( u) x i

Funções de ativação neural parcialmente diferenciáveis São aquelas que possuem pontos cujas derivadas de primeira ordem são inexistentes. a) Função degrau (heavyside) b) Função degrau bipolar ou funçãosinal Classifcação de padrões

Funções de ativação neural parcialmente diferenciáveis c) Função rampa simétrica Os valores retornados são iguais aos próprios valores dos potenciais de ativação quando estes estão definidos no intervalo [-a,a], restingindo-se aos valores limites em caso contrário.

Funções de ativação neural totalmente diferenciáveis São aquelas cujas derivadas de primeira ordem existem e são conhecidas em todos os pontos de seu domínio de definição São quatro as principais funções.

Funções de ativação neural totalmente diferenciáveis a) Função logística Saída: valores entre 0 e 1. β é uma constante real associada ao nível de inclinação da função logística frente ao seu ponto de inflexão Formato geométrico tende a ser similar ao da função degrau quando β for muito elevado (tender ao infinito)

Funções de ativação neural totalmente diferenciáveis b) Função tangentet hiperbólica Saída: valores reais entre -1 e 1 β também está associado ao nível de inclinação da função em relação ao seu ponto de inflexão Formato geométrico tende a ser similar ao da função degrau bipolar quando β for muito elevado (tender ao infinito).

Funções de ativação neural totalmente diferenciáveis c) Função gaussiana d) Função linear (identidade) c define o centro (média) da função σ 2 especifica a variância i (espalhamento) Produz resultados idênticos aos valores do potencial de ativação {u}

Arquiteturas de RNA s Arquitetura de RNA s Define a forma como os seus diversos neurônios estão arranjados, ou dispostos, uns em relação aos outros. Os arranjos são estruturados através do direcionamento do fluxo sináptico. Topologia de RNA s Define as diferentes formas de composições iõ estruturais que uma rede pode assumir, dada uma determinada arquitetura. Ex: dada uma determinada arquitetura, uma das redes pode ser composta por 10 neurônios e a outra por 20 neurônios Processo de treinamento Consiste na aplicação de um conjunto de passos ordenados com o intuito de ajustar os pesos e os limiares de seus neurônios. Visa sintonizar a rede para que as suas respostas estejam próximas dos valores desejados. Conhecido como algoritmo de aprendizagem

Partes da RNA Camada de entrada Responsável pelo recebimento de informações (dados) advindas do meio externo Entradas são normalizadas em relação aos valores limites produzidos pelas funções de ativação Camadas escondidas, intermediárias, ocultas ou invisíveis Compostas de neurônios que possuem a responsabilidade de extrair as características associadas ao processo ou sistema a ser inferido. Camada de saída Também é constituida de neurônios, sendo responsável por produzir/apresentar os resultados finais da rede

Arquiteturas As principais arquiteturas, consideram Disposição de seus neurônios Formas de interligação entre os neurônios Constituição de suas camadas

1. Arquitetura feedforward (alimentação à frente) Camada simples Constituída de uma camada de entrada e única camada de neurônios, que é a própria saída. Fluxo de informações segue sempre numa única direção (unidirecional). Ex: Perceptron, Adaline Aplicações: classificação de padrões, filtragem linear

2. Arquitetura feedforward f (alimentação à frente) Camadas múltiplas l Presença de uma ou mais camadas neurais escondidas Quantidade de camadas escondidas e de neurônios dependem, sobreturo, do tipo e complexidade do problema. Ex: Perceptron multicamadas, redes de base radial (RBF). Aplicações: aproximação de funções, classificação de padrões, controle de processos, otimização, etc.

3. Arquitetura recorrente Saídas dos neurônios são realimentadas como sinais de entrada para outros neurônios. Realimentação as qualificam para processamento dinâmico de informações. Ex: Hopfield, Perceptron multicamadas com realimentação Aplicações sistemas de previsão, otimização, controle de processos, etc.

4. Arquitetura ra reticulada Levam em consideração a forma em que a disposição espacial dos neurônios está organizada. Visa propósitos de extração de características. Ex: Kohonen. Aplicações: problemas de agrupamento, classificação de Rede de Kohonen em que os padrões, otimização de neurônios estão dispostos no espaço bidimensional sistemas, etc.

Processos de treinamento Aprender a partir da apresentação de amostras Exprimem o comportamento do sistema (padrões) Generalizar soluções Produzir uma saída próxima da esperada

Processos de treinamento Processo de treinamento Consiste da aplicação de passos ordenados a fim de ajustar (sintonizar) os parâmetros livre (pesos sinápticos e limiares) dos neurônios. Objetivo final: generalização de soluções (as quais não eram conhecidas)

Divisão das amostras Representa todos os dados disponíveis sobre o comportamento do processo a ser mapeado. Conjunto total de amostras 60 a 90% 10 a 40% Subconjunto de treinamento Usado para o processo de aprendizado da rede. Subconjunto de teste Usado para verificar se a generalização de soluções por parte da rede já estã em patamares aceitáveis. Não participam do treinamento da rede

Treinamento supervisionado Consiste em se ter disponível, considerando cada amostra dos sinais de entrada, as respectivas saídas desejadas. Cada amostra de treinamento é então composta pelos sinais de entradas e suas correpondentes saídas. Comporta como se houvesse um professor ensinando para a rede qual seria a resposta correta para cada amostra apresentada

Passos do treinamento supervisionado 1. Apresente uma amostra de treinamento. 2. Calcule a saída produzida pela rede. 3. Compare com a saída desejada. 4. Se estiver dentro de valores aceitáveis: Então Termine o processo de aprendizado d Senão Ajuste os pesos sinápticos e limiares dos neurônios e volte ao passo 1.

Treinamento não-supervisionado Diferentemente do supervisionado, as respectivas saídas desejadas são inexistentes. A rede deve se auto-organizar em relação às particularidades existentes entre os elementos do conjunto total de amostras, identificado subconjuntos (clusters) que contenham similaridades. Passos do treinamento não supervisionado: 1. Apresente todas as amostras de treinamento. t 2. Obtenha as características que marcam as amostras de treinamento. 3. Agrupe todas as amostras com características em comum. 4. Coloque as amostras comuns em classes.

Aprendizagem off-line e on-line Off-line (usando lote de padrões) Os ajustes efetuados nos pesos e limiares dos neurônios só são efetivados após a apresentação de todo o conjunto de treinamento. Cada passo de ajuste leva em consideração o total de desvios observados nas amostras de treinamento frentes aos respectivos valores desejados para as usas saídas. On-line (usando padrão-por-padrão) Os ajustes nos pesos e limiares dos neurônios são efetuados após a apresentação de cada amostra de treinamento. É l t tili d d t t d it É normalmente utilizada quando o comportamento do sistema a ser mapeado varia de forma bastante rápida.

Exercícios P. 43-44; 44; 54-55 55

Bibliografia Livro: Redes Neurais Artificiais: para engenharia e ciências aplicadas curso prático Autores: Ivan Nunes da Silva Danilo Hernane Spatti Rogério Andrade Flauzino Artliber: 2010.