Redes Neurais Artificiais

Documentos relacionados
GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

REDES NEURAIS ARTIFICIAIS: Do Aprendizado Natural Ao Aprendizado Artificial

Sistemas Inteligentes baseados em Redes Neurais Artificiais aplicados ao Processamento de Imagens

Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

Redes Neurais Artificiais

Classificação Linear. André Tavares da Silva.

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Aprendizado de Máquina (Machine Learning)

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

INF 1771 Inteligência Artificial

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificiais

Redes Neurais Artificiais. Prof. João Alberto Fabro

Redes Neurais Artificiais

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

Inteligência Artificial Redes Neurais

Redes Neurais Artificial

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

lnteligência Artificial Introdução a Redes Neurais Artificiais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Sistemas Inteligentes - Redes Neurais -

Reconhecimento de Padrões/Objetos

REDES NEURAIS. Marley Maria B.R. Vellasco. ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada CONTEÚDO

Redes Neurais Artificiais - Introdução. Visão Computacional

Sistemas Inteligentes baseados em Redes Neurais Artificiais aplicados ao Processamento de Imagens

Inteligência Artificial

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

FÁBIO BARROS TEBALDI ESTUDO DE REDES NEURAIS ARTIFICIAS PARA VERIFICAÇÃO E CLASSIFICAÇÃO DE ASSINATURAS ATRAVÉS DE IMAGENS

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Redes Neurais Artificiais. Profa. Teresa Ludermir Sistemas Inteligentes

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Redes neurais artificiais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

REDES NEURAIS ARTIFICIAIS

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

JAI 6 - Deep Learning Teoria e Prática

Motivação, Objetivo, Definição, Características Básicas e Histórico. Neurônio Artificial, Modos de Interconexão

Multiple Layer Perceptron

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

Redes Neurais Artificiais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005

Redes Neurais Artificial. Prática. Inteligência Artificial

2. Redes Neurais Artificiais

Rede Perceptron. Capítulo 3

Mineração de Dados em Biologia Molecular

3 Redes Neurais Artificiais

Redes Neurais Artificiais. Capítulos 1 e 2

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

Profa. Josiane M. Pinheiro outubro/2008

Por que Redes Neurais?

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Tópicos sobre Redes Neurais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Inteligência Artificial

3 INTELIGÊNCIA COMPUTACIONAL (IC)

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais Artificiais (RNA)

João Paulo Teixeira Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança

Redes Neurais e Sistemas Fuzzy

Introdução às Redes Neurais Artificiais

4 Redes Neurais Artificiais

Fundamentos das Redes Neurais: exemplos em Java

3 REDES NEURAIS ARTIFICIAIS

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

INTELIGÊNCIA ARTIFICIAL

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Professor José Gomes de Carvalho Jr. Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO

Rede RBF (Radial Basis Function)

Redes Neurais Artificiais

Redes Neurais Artificiais

Processamento de Sinais e Inteligência Computacional. Prof. Emilio del Moral Hernandez

SCC Redes Neurais

Redes Neurais Noções Gerais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Fundamentos de Inteligência Artificial [5COP099]

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

4 Redes Neurais Artificiais RNAs

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador.

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

Inteligência Computacional

Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação. Perceptron

Transcrição:

Redes Neurais rtificiais Histórico, Modelos e prendizado Neural Unisinos - 2001/2 Curso de Informática Disciplina: Redes Neurais Prof. Fernando Osório Centro de Ciências Exatas e Tecnológicas - C6 / E-mail: osorio@exatas.unisinos.br Curso de Informática - Web: http://inf.unisinos.br/~osorio/neural.html TEMS DE ESTUDO: REDES NEURIS RTIFICIIS Histórico, Princípios ásicos e Características Psychon [McCulloch & Pitts 43] daline, Madaline, Perceptron [Widrow 62, Rosenblatt 59] Multi-Layer Perceptron e ack-propagation [Rumelhart 86] Outros modelos: Hopfield, Kohonen, RT, M, S, RF,... Modelos de Redes Neurais Características e Classificação Topologia prendizado e Generalização Vantagens e limitações do uso das redes neurais artificiais plicações das RN (NN=rtificial Neural Nets) proximação de Funções Classificação Exemplos: previsão, séries temporais, diagnóstico, etc MLP - P = Multi-Layer Perceptron com ack-propagation Descrição do modelo lgoritmo de prendizado Características e Propriedades

REDES NEURIS: Redes Neurais rtificiais: Neurônio... Modelo Simulado Modelo SIMPLIFICDO Características ásicas: daptação prendizado utômato Representação de Conhecimentos: aseada em Conexões SIMULR REDES NEURIS REDES NEURIS: Psychon - McCulloch & Pitts 1943 Dispositivo Lógico de 2 estados - Modelo de conexões não adaptáveis Não previa o aprendizado! PSYCHON McCulloch & Pitts 1943 Saída Entradas Excitatórias Integrador de Estímulos Entradas Inibitórias Regra de Hebb - 1949 (Neurofisiologia => prendizado) Livro The Organization of ehavior - Plasticidade e adaptação Dois neurônios conectados que são ativados ao mesmo tempo devem fortalecer esta conexão, e o comportamente inverso (ativação isolada, enfraquecer a conexão) também deve ser considerado - daptação da força das conexões

REDES NEURIS: daline -. Widrow & M. Hoff 1960 - daptive Linear Element (Linear Neuron) Elementos com saídas binárias {0,1} ou {-1,1} Conexões com adaptação - prendizado - Correção do Erro de Saída Inputs X 1 X 2 X 3 X N. W 1 W N Σ θ Output Y = F (Inputs) Y = F transf (Σ x i * w i ) Y = -1 se Σ x i * w i < θ 1 se Σ x i * w i >= θ Entradas Inputs = X 1 a X N Saída Output = Y Pesos Weigths = W 1 a W N Limiar Threshold = θ Inputs X 1 X 2 X 3. X N W 1 W N Σ Erro 1 Σ +1 +1 1 prendizado = REGR DELT Erro = Y D - Y Wnovo = Want + η.erro.x 0 <= η <= 1 Y Y D = Saída Desejada REDES NEURIS: daline -. Widrow & M. Hoff 1960 - daptive Linear Element Exemplo de uso... Sistema de auxílio ao diagnóstico de pacientes Médico: 8 perguntas sobre os sintomas do paciente (resposta: S / N ) Sintomas: 1 = Dor de Cabeça, 2 = Febre, 3 = Problemas digestivos,... ase de Conhecimentos do Médico 1 2 3 4 5 6 7 8 Diagnóstico S S N S N S S S Pneumonia S N S S S N N S Pneumonia S N S N S N S N Saudável S N N S S N S N Saudável Realizar o diagnóstico baseado nos conhecimentos prévios Consultas ao sistema: S,N,S,N,S,N,S,N => Diagnóstico? S,N,?,?,S,N,S,N => Diagnóstico?

REDES NEURIS: PERCEPTRON - Frank Rosenblatt 1958-1962 ( Principles of Neurodynamics ) Modelo básico de neurônio adotado por muitos dos modelos atuais!... X 1 X 2 X N Entradas (Dendritos)... W 1 W 2 W N N Net = Σ Wi.Xi + iais i Pesos Sinápticos (Efeito de inibição ou de excitação sobre a ativação dos sinais de entrada) tivação (Considera o conjunto total das entradas e dos seus pesos associados) Fct (Net) Função de tivação (Regulagem da saída da rede) Saída (xônio: Conexões com as Sinapses de outras unidades) REDES NEURIS: Perceptron - Exemplos de uso: Reconhecimento de Padrões em Imagens. Classificador de Saída inária x Contínua Retina... Classificador de. Individual x Competição (winner take all) Classificador de Z

REDES NEURIS: Perceptron - Exemplos de uso: prendizado de uma função - aproximação / regressão / interpolação Y prendizado : Entra X, Saida desejada Y Resposta da rede: Entra X, Sai Y Função Y=F(X) desconhecida representada através de exemplos de pares de coord. X,Y ase de prendizado: Y = 1.2 * X X X Y 1.0 1.2 1.5 1.8 2.0 2.4 2.5 3.0 3.0 3.6 Saída com valores numéricos (variável quantitativa) REDES NEURIS: Perceptron - Funções de Transferência: normaliza saída Objetivo - adaptar o resultado da soma ponderada em um intervalo de saída adotado F(X) = Sgn(X) If X >= 0 Then Y = 1 Else Y = 0 (ou -1) ou IF X >= Limiar Then Y = 1 Else Y = 0 (ou -1) F(X) = Linear(X, Min, Max) If X < Min Then Y = 0 If X >= Min and X =< Max Then Y = X If X > Max Then Y = 1 Obs.: Y = X ou Y = Normaliza(X) F(X) = Sigmoid(X) ssimétrica Simétrica Y = 1 1 + Exp (-x) Y = TanHip (X)

REDES NEURIS: Perceptron - Funções de Transferência: normaliza saída Sigmoïd assimétrica REDES NEURIS: Perceptron - prendizado = daptação das conexões (pesos sinápticos) Medida do Erro de Saída Configuração Inicial dos Pesos da Rede Descida do Gradiente de uma Superfície de Erro Configuração Final (após adaptação) Mínimos Locais Mínimo Global Mudanças na Configuração dos Pesos Sinápticos

REDES NEURIS: Perceptron - prendizado = daptação das conexões (pesos sinápticos) REGR DELT: Perceptron [Rosenblatt] / daline [Widrow] Erro = SD - SN Erro = Erro estimado na saída de um neurônio SD = Saída Desejada (valor desejado de saída do aprendizado supervisionado) SN = Saída Rede (valor de saída que foi obtido pela ativação do neurônio) Peso_Novo(i) = Peso_ntigo(i) + β * Erro(i) * Entrada(i) ------------------------------- Entrada(i) Peso_Novo(i) = Peso da entrada i de um neurônio, após a adaptação Peso_ntigo(i) = Peso da entrada i de um neurônio, antes da adaptação Entrada(i) = Valor da entrada i de um neurônio β = Fator de ajuste aplicado aos pesos (valor entre 0 e 1) REDES NEURIS: Perceptron - prendizado = daptação das conexões (pesos sinápticos) Método da Descida do Gradiente Erro quadrático: 1 E = 2 i ( Di i) 2 juste dos Pesos: Wij = α Wij Derivação da regra de reajuste dos pesos (saída linear): = i = δi Xj Wij i Wij = - (Di - i) = δi i i Wij = Xj Wij = α.δi.xj = α.(di - i).xj E = Erro W Dada uma entrada Xi e o peso Wi, o neurônio fornece uma saída i. Queremos treiná-lo para responder Di

REDES NEURIS: Perceptron - prendizado = daptação das conexões (pesos sinápticos) Método da Descida do Gradiente Derivação da regra de reajuste dos pesos: Neurônios usando a sigmoïde = Si = δi Xj Wij Si Wij Si = i = - (Di - i).fa'(si) = δi i Si = - (Di - i) i i = Fa'(Si) Si Si Wij = Xj Fa x 1 1 + e Fa'(x) = Fa(x).(1 - Fa(x)) Fa'(Si) = Fa(Si).(1 - Fa(Si)) = i.(1 - i) Fa(x) = tanh (x) Fa'(x) = (1 - Fa(x).Fa(x)) Fa'(Si) = (1 - Fa(Si).Fa(Si)) = (1 - i.i) Wij = α.δi.xj = α.(di - i).fa'(si).xj Wij = α.δi.xj = α.(di - i).fa'(si).xj X 1 X 2 X N... Entradas (Dendritos) PERCEPTRON... W 1 W 2 W N N Net = Σ Wi.Xi + iais i Fct (Net) Pesos Sinápticos (Efeito de inibição Rede ou Neural de excitação com apenas 2 entradas: sobre a ativação dos sinais de entrada) X, Y - Entradas (Valores numéricos) W tivação 1, W 2 - Pesos Sinápticos (Considera o conjunto total das Saída = Σ Wi.Xi + iais entradas e dos seus pesos associados) Função de tivação (Regulagem da saída da rede) = W 1. X + W 2. Y + C Saída (xônio: Conexões com as Sinapses de outras unidades)

PERCEPTRON Rede Neural com apenas 2 entradas: X, Y - Entradas (Valores numéricos) W 1, W 2 - Pesos Sinápticos Saída = Σ Wi.Xi + iais = W 1. X + W 2. Y + C CLSSIFICÇÃO X Y ND 0 0 0 0 1 0 1 0 0 1 1 1 Y (0,1) 0 1 (1,1) Representação Geométrica do Problema 0 0 (0,0) (1,0) X PERCEPTRON Rede Neural com apenas 2 entradas: X, Y - Entradas (Valores numéricos) W 1, W 2 - Pesos Sinápticos Saída = Σ Wi.Xi + iais = W 1. X + W 2. Y + C CLSSIFICÇÃO X Y ND 0 0 0 0 1 0 1 0 0 1 1 1 Y (0,1) 0 1 (1,1) Representação Geométrica do Problema Como classificar? Separar as classes 0 0 (0,0) (1,0) X

REDES NEURIS: Reta, Plano ou Hiper-plano de separação das classes -1 Classe : X*W1+Y*W2 < 0 Entrada Y +1-1 Perceptron - prendizado = daptação dos (hiper)planos de separação Y 1 P(X 1,Y 1 ) X 1 - Classe - Classe P(X 1,Y 1 ) = Classe Classe : X*W1+Y*W2 > 0 Entrada X +1 Entradas: X, Y Reta: X*W1+Y*W2=0 REDES NEURIS: Perceptron - Problema do prendizado do XOR Minsky & Papert 1969 ( Perceptrons ) - Problema não linearmente separável! X Y XOR 0 0 0 0 1 1 1 0 1 1 1 0 Problema do XOR OU Exclusivo X Y XOR -1-1 O -1 +1 X +1-1 X +1 +1 O Y Sistema de Equações: (+1,-1) X O O X (+1,+1) (-1,-1) (-1,+1) X.X +.Y = S -1.X + -1.Y = -1-1.X + +1.Y = +1 +1.X + -1.Y = +1 +1.X + +1.Y = -1 Sem solução!!!

REDES NEURIS: Perceptron - prendizado: prendizado de uma função não linear - aproximação / regressão Saída de Rede ase de prendizado 0.0 0.000000 0.3 0.147760 0.6 0.282321 0.9 0.391663 1.05 0.433712 1.2 0.466020 1.35 0.487862 1.5 0.498747 1.65 0.498433 1.8 0.486924 1.95 0.464480 2.1 0.431605 2.4 0.337732 2.7 0.213690 3.0 0.070560 3.3-0.078873 3.6-0.221260 3.9-0.343883 4.2-0.435788 4.35-0.467526 4.5-0.488765 4.65-0.499027 4.8-0.498082 4.95-0.485952 5.1-0.462907 5.25-0.429470 5.4-0.386382 5.7-0.275343 6.0-0.139708 REDES NEURIS: Perceptron: - Quais as soluções existentes para o aprendizado de problemas não lineares? MDLINE - Many daline - ernard Widrow * Combinando multiplos dalines * Modos de combinação: - nd - Or - Majority * Problemas: falta de um método automático de aprendizado e combinação dos múltiplos dalines Redes Multi-Nível: década perdida * Mais de 10 anos buscando uma solução... 1969 (Minsky) => 1986 (Rumelhart) * Problema enfrentado: - Cálculo do erro na saída: Sdesejada - Sobtida = Erro - Cálculo do erro de um neurônio interno da rede: Como fazer a atribuição da culpa em relação ao erro final na saída??? Ou X O Y O (+1,-1) (+1,+1) X (-1,-1) (-1,+1) X

REDES NEURIS: Redes Multi-Nível: prendizado de problemas - Classes não linearmente separáveis Rumelhart, Hinton & Williams 1986 - Livro PDP - Parallel Distributed Processing Saída / Output Pesos Unit j MLP - Multi-Layer Perceptron prendizado: ack-propagation Wij Camada Oculta Unit i Hidden Layer Entradas / Input REDES NEURIS: Redes Multi-Nível - nos 80 surgem vários modelos e arquiteturas Saída Saídas Camada Oculta Camadas Ocultas Entradas C (a) Rede de três camadas (b) Rede com atalhos (c) Rede com múltiplas camadas tv = Σ W 1 +W 2 +W 3 W 1 W2 X W 3 (d) Rede recorrente (e) Rede de ordem superior

REDES NEURIS: Redes Multi-Nível: Multi-Layer Perceptron com ack-propagation Método da Descida do Gradiente - Multi-Layer Perceptron (MLP) ackpropagation Erro quadrático: 1 E = 2 i ( Di i) Derivação da regra de reajuste dos pesos Camada intermediária da rede = Hidden Layer 2 juste dos Pesos: Wij = α Wij = Si * Cálculo do erro de um neurônio: (hidden) Wij Si Wij = δixj Como fazer a atribuição da culpa Si = i i Si = - Fa'(Si). δkwki em relação ao erro final na saída??? = δi k i = Sk Resposta: k Sk i = Whkh =... - culpa (erro) de um neurônio é proporcional k Sk i h... = a sua influência no erro da camada seguinte, k Sk Wki = δkwki ou seja, depende do peso da conexão entre a k saída deste neurônio e a entrada na camada i Si = Fa'(Si) seguinte. - O processo de ajuste dos pesos passa por uma Si Wij = Xj etapa forward de ativação da rede e uma etapa backward de propagação do erro para Wij = α.δi.xj = α.xj.fa'(si). δkwki as camadas superiores (partindo da saída em k direção a camada de entrada) REDES NEURIS: Redes Multi-Nível: Multi-Layer Perceptron com ack-propagation Método da Descida do Gradiente - Multi-Layer Perceptron (MLP) ackpropagation Erro quadrático: 1 E = 2 = Si Wij Si Wij = δixj Si = i i Si = - Fa'(Si). δkwki = δi k i = Sk k Sk i = Whkh =... k Sk i h... = k Sk Wki = δkwki k i Si = Fa'(Si) Si Wij = Xj Wij = α.δi.xj = α.xj.fa'(si). δkwki i ( Di i) Derivação da regra de reajuste dos pesos Camada intermediária da rede = Hidden Layer Camada intermediária (oculta) k 2 juste dos Pesos: Wij = α Wij = Si = δi Xj Wij Si Wij Si = i = - (Di - i).fa'(si) = δi i Si = - (Di - i) i i = Fa'(Si) Si Si Wij = Xj Wij = α.δi.xj = α.(di - i).fa'(si).xj Camada de saída com sigmoïde

REDES NEURIS: Redes Multi-Nível: Multi-Layer Perceptron com ack-propagation Saída, Saída Desejada Erro do Neurônio S1 Erro S1 S1 S1 H1 H2 H1 H2 Erro N1, N2 E1 E2 E1 E2 Entrada tivação Forward Propagação do Erro ackward ltera Pesos S1, N1, N2 REDES NEURIS: Resumo da evolução das Redes Neurais rtificiais: [Widrow & Lehr; raga; Kovacs] 1943 - Psychon - McCulloch & Pits (Exitação / Inibição - Sem aprendizado) 1949 - Regra de Hebb - D. O. Hebb (prendizado / daptação) 1960 - daline - Widrow & Hoff (Valores discretos / binários / Regra Delta) 1962 - Perceptron - Frank Rosenblatt (Valores contínuos) 1962 - Madaline - ernard Widrow (Combinando dalines / Combinação manual) 1969 - Problema do XOR - Minsky & Papert (Livro Perceptrons ) 1970-1980 => Década perdida... 1982 - Modelo de Hopfield (Redes recorrentes - Memórias uto-ssociativas) 1982 - Modelo de Kohonen - SOFM (Redes recorrentes - Clustering) 1983 - Modelo RT - Carpenter & Grossberg (Cria protótipos - não supervisionado) 1986 - MLP ack-propagation - Rumelhart, Hinton & Willians (Multi-nível) 1980-1990 => Década das aplicações Nettalk, lvinn, Dupla espiral, Jogos, Robótica, Visão, Reconhecimento de Imagens e Padrões (OCR, Digitais, ssinaturas), Reconhecimento de Voz (Comandos e Fonemas) Previsão de séries temporais (ções, tempo, consumo, etc). 1990-2000 => Revendo conceitos e limitações. Propondo novos modelos (ver FQ). FQ - Http://www.cis.ohio-state.edu/hypertext/faq/usenet/ai-faq/neural-nets/top.html

REDES NEURIS: Características e Classificação das Redes Classificando as Redes Neurais rtificiais: Em relação as unidades da rede: conhecimento local / distribuído, função de transf.,... * Redes baseadas em Perceptrons (MLP - Multi-Layer Perceptron) * Redes baseadas em Protótipos (RF - Radial asis Function, RT, SOFM Kohonen) Em relação a estrutura da rede (topologia): * Redes de uma única camada * Redes de múltiplas camadas * Redes modulares * Redes do tipo uni-direcional (Feed-Forward na ativação) * Redes do tipo recorrentes (Feed-ack na ativação) * Redes com estrutura estática (não altera sua estrutura) * Redes com estrutura dinâmica (altera a estrutura - cresce / diminui) * Redes com atalhos (short-cuts) * Redes com conexões de ordem superior (sigma-pi) Em relação a saída de rede / tipo de aplicação: valores binários, discretos e contínuos * Redes binárias - entradas e saídas binárias * Redes com saídas discretas (valores binários) usadas na classificação * Redes com saídas contínuas (valores numéricos) usadas na aproximação de funções REDES NEURIS: Características e Classificação das Redes prendizado nas Redes Neurais rtificiais: Em relação ao aprendizado: * prendizado supervisionado (correção de erros) * prendizado semi-supervisionado (reinforcement learning) * prendizado não supervisionado (self-organizing, clustering, competitive) * prendizado instantâneo (one shot learning) * prendizado por pacotes (batch learning) * prendizado contínuo (on-line learning) * prendizado ativo (interactive) * prendizado: tarefa de aproximação de funções * prendizado: tarefa de classificação - Pertence a classe (sim/não) - Qual é a classe que pertence (,, C, D - nro. de classes limitado) - Qual é a classe que pertence (,, C, D,... - nenhuma destas) - Qual é a classe que pertence (uma única, múltiplas classes) * prendizado: tarefa envolvendo aspectos temporais e contexto * prendizado: memória associativa (auto-associativa, bidirecional) * Uso apenas uma base de exemplos de aprendizado (decorar / generalizar) * Uso de uma base de aprendizado e uma base de teste de generalização

REDES NEURIS: Características e Classificação das Redes prendizado nas Redes Neurais rtificiais: Curvas de prendizado Erro na Saída da Rede prendizado: Parada tardia Dados de Teste Dados de prendizado Número de Épocas Erro na Saída da Rede Parada usando a Validação Cruzada (ponto ótimo de generalização) Dados de Teste Dados de prendizado Número de Épocas REDES NEURIS: Características e Classificação das Redes Vantagens e Limitações das Redes Neurais rtificiais: - plicações de Machine Learning e Sistemas daptativos; - plicadas em tarefas onde temos bases de exemplos disponíveis sobre um determinado problema, realizando a aquisição automática de conhecimentos; - ssociação de padrões de entradas e saída; - Classificação de padrões de forma supervisionada ou não; - proximação de funções desconhecidas através de amostras destas funções; - Trabalhar com dados aproximados, incompletos e inexatos; - Paralelismo, generalização, robustez; - Tarefas complexas realizadas por seres humanos ; Limitações: - Trabalhar com conhecimentos simbólicos de alto nível; - Composição e construção de conhecimentos estruturados; - Dificuldade de explicitação dos conhecimentos adquiridos; - Dificuldade para definir a estrutura da rede, seus parâmetros e a base de dados; - Falta de garantia de uma convergência do algoritmo para uma solução ótima;

REDES NEURIS: plicações Sistemas de auxílio ao Diagnóstico: Médico, Falhas de Sistemas, etc; Previsão de Séries Temporais: Cotações da olsa de Valores, Dados Econômicos, Consumo de Energia Elétrica, Metereologia, etc; Processamento de Linguagem Natural - PLN (Textos e Web); Data Mining & KDD (Knowledge Data Discovery); Robótica Inteligente; Sistemas de Controle e utomação; Reconhecimento e Síntese de Voz; Processamento de Sinais e Imagens: Radar, Sensores, Imagens de satélite, etc. Clássicos: Nettalk, lvinn, Dupla espiral, Reconhecimento de faces de pessoas, Reconhecimento de Imagens e Padrões (OCR, Digitais, ssinaturas), Reconhecimento de Voz (Pessoa, Comandos e Fonemas) Previsão de séries temporais (ções, metereologia, consumo, etc). UCI-ML - University of California Irvine - Machine Learning Repository http://www.ics.uci.edu/~mlearn/mlrepository.html Redes Neurais rtificiais http://www.inf.unisinos.br/~osorio/neural.html Grupo de Inteligência rtificial @

TEMS DE PESQUIS SORE REDES NEURIS RTIFICIIS: * PPERS / DOCUMENTÇÃO: FQ: Http://www.cis.ohio-state.edu/hypertext/faq/usenet/ai-faq/neural-nets/top.html Http://www.faqs.org/faqs/ai-faq/neural-nets/ Ftp://ftp.sas.com/pub/neural/FQ.html Osorio - Neural: Http://www.inf.unisinos.br/~osorio/neural.html Livros On-Line: Http://www.inf.unisinos.br/~osorio/neural/Neuro-book.html Http://pris.comp.nus.edu.sg/Guidebook/GuidebookIndex.html UCI-ML: http://www.ics.uci.edu/~mlearn/mlrepository.html Neuroprose * SSOCIÇÃO: Connectionist List Comp.ai.neural-nets SOFTWRES: PDP++ SNNS NevProp INSS Outros http://www.cnbc.cmu.edu/pdp++/pdp++.html http://www-ra.informatik.uni-tuebingen.de/snns/ Nevada Propagation Software Contactar Osório... http://www.inf.unisinos.br/~osorio/neural/software.html