lnteligência Artificial Introdução a Redes Neurais Artificiais
|
|
- Pedro Lucas Barreto Alvarenga
- 5 Há anos
- Visualizações:
Transcrição
1 lnteligência Artificial Introdução a Redes Neurais Artificiais
2 Objetivos Descrever as características básicas das Redes Neurais Artificiais (RNAs). Descrever o funcionamento de uma RNA. Descrever algumas das principais arquiteturas existentes para RNAs. Exemplificar o uso de RNAs em Reconhecimento de Padrões e Controle. CTC-5
3 Motivação Biológica Idéia central: utilizar neurônios biológicos como modelos para neurônios artificiais. Neurônio Biológico: Elemento fundamental do sistema nervoso. Diversos tipos. Cérebro humano: relativamente lento, muito paralelismo (0 processadores de KHz) CTC-5
4 Motivação de Engenharia IA tradicional (simbólica): Adequada para problemas expressos em uma lógica apropriada (ad hoc). Pouca ênfase na comunicação entre o agente e o mundo (problema de grounding). Pouca ênfase em aprendizagem ou adaptação. Ênfase em processamento sequencial. Redes Neurais Artificiais: Adequada para tarefas simples e diretas como andar, falar, ouvir, ver ênfase em processos que envolvem interação entre agente e mundo. Ênfase em aprendizagem e adaptação. Ênfase em processamento paralelo. CTC-5
5 Características das Redes Neurais Naturais Grande número de elementos de processamento. (No. de neurônios 0, estudos recentes falam em aprox. 86bilhões de neurônios) Grande número de conexões ponderadas entre os elementos. cada neurônio se conecta com outros 0 4. Controle altamente distribuído e paralelo: é mais robusta a falhas de neurônios individuais. Relação entrada-saída em cada neurônio é não-linear. Aprendizagem automática! As RNAs são uma aproximação grosseira de um cérebro. CTC-5
6 Um pouco de História 950s & 960s: Infância Neurônio de McCulloch-Pitts Perceptrons ( Rosenblatt ) Adaline ( Widrow & Hoff ) 970s: Os anos negros Minsky and Papert ( MIT ) publicam um livro que põe em dúvida a capacidade de aprendizado dos perceptrons Redes auto-organizáveis ( Kohonen ) Teoria de Ressonância Adaptativa ( Grossberg & Carpenter ) 980s: Entusiasmo renovado Surgimento do algoritmo backpropagation (Werbos) Redes de Hopfield ( Hopfield & Tank ) 990s-Atual: Amadurecimento - Aplicações no mundo real - Teoria computacional da aprendizagem: support vector machines (Vapnik) CTC-5
7 Aplicações Identificação de alvos militares: B-52, Boeing 747 e Space Shuttle Autentificação de usuário. Reconhecimento de Faces Exploração de petróleo: Determinação e Litologia Predição no Controle de Navegação Autônoma de Veículos: Mercado ALVINN at CMU Financeiro CTC-5
8 Referências Bibliográficas A Bíblia: Simon Haykin. Neural Networks: A Comprehensive Foundation. Livros de IA com bom capítulo de RNAs: Russel e Norvig. Artificial Intelligence: A Modern Approach. Livro em Português: Braga, Ludermir e Carvalho. Redes Neurais Artificiais. LTC. CTC-5
9 Estrutura simplificada de neurônio biológico Um neurônio biológico é composto de 4 partes principais: Corpo. Axônio: envia impulsos elétricos. Dendritos: recebem informação (impulsos elétricos) provenientes de outros neurônios). Sinapse: ponto de contato entre neurônios. Dendritos Corpo Axônio Ação sináptica: Sinapses Impulso elétrico (do axônio) Processo pré-sináptico Processo pós-sináptico Impulso elétrico (para dendritos) Sinal elétrico Sinal químico Sinal elétrico CTC-5
10 Funcionamento de um Neurônio Biológico Neurônios podem estar em 2 estados: Ativo ou excitado: envia sinais para outros neurônios por meio do axônio e sinapses. Inativo ou inibido: não envia sinais. Sinapses podem ser de 2 tipos: Excitatórias (excitam o neurônio receptor). Inibitórias (inibem o neurônio receptor). Quando o efeito cumulativo das várias sinapses que chegam a um neurônio excedem um valor limite, o neurônio dispara (fica ativo por um período) e envia um sinal para outros neurônios. CTC-5
11 Modelo de Neurônio Artificial Um Neurônio Artificial é composto por: X i : o conjunto de entradas. W ji : o conjunto de pesos (um para cada sinapse). Nível de Ativação: soma ponderada do vetor de entradas. Função de Ativação: função não-linear aplicada sobre o nível de ativação para produzir o sinal de saída. Se a saída for diferente de zero, ela é transmitida para outros neurônios. x 2 x w 2 w 3 w Σ f saída w =Vetor de pesos. x = Vetor de entradas. Σ = Soma ponderada das entradas f = função de ativação x 3 saída = f(w t.x) = f [(w.x )+(w 2.x 2 )+(w 3.x 3 )] CTC-5
12 Tipos de Função de Ativação Função Limiar Função Sigmoide Out Out = if net > θ = 0 if net < θ Out Out = exp (-λ.net) 0 θ net 0 net Out Out = if net > θ Função Logística = - if net < θ Out Out = tanh(λ.net) 0 θ net 0 net Função Tangente Hiperbólica CTC-5
13 Exemplos de neurônio x,x 2 {0,} w = w 2 = f(w t.x) = se nível de ativ. 2, 0 caso contrário. x x 2 Σ f x,x 2 {0,} w = w 2 = 0,5 f(w t.x) = se nível de ativ. 0,5, 0 caso contrário. x x 2 0,5 0,5 Σ f CTC-5
14 O que é uma RNA? É um sistema de processamento de informações desenvolvido a partir de modelos matemáticos simplificados dos neurônios biológicos. É constituida por um grande número de unidades de processamento (chamadas neurônios artificiais) interconectadas. Reconhecem, classificam, convertem e aprendem padrões. CTC-5
15 Processamento Neural O processo de calcular a saída de uma rede neural dada uma entrada é chamado recall. O objetivo do recall é recuperar a informação armazenada na rede. Exemplos de processamento realizados por uma rede neural: Associação de padrões Classificação de padrões. Reconhecimento de padrões. Generalização. CTC-5
16 Padrões, atributos e classes Um Padrão é um modelo de descrição quantitativa de um objeto. Cada padrão é definido por um conjunto de valores de atributos. Um atributo é uma característica mensurável de um padrão. Uma Classe contem um conjunto de padrões com propriedades comuns CTC-5
17 Tipos de Padrões Padrões estáticos ou espaciais: não envolvem o tempo. Padrões dinâmicos ou temporais: envolve o tempo. single cell 0 0 f(t) f(t ) Time-varying waveform object f(t n ) 6 x 5 grid t t 2 t 3 t n t CTC-5
18 Associação: Autoassociação e Heteroassociação Autoassociação Um conjunto de padrões de referência é armazenado na rede. Um padrão similar é apresentado e a rede associa esta entrada com o padrão armazenado mais próximo. O padrão de entrada pode possuir ruído ou distorções em relação ao seu modelo armazenado na rede. Corresponde a um processo de reconhecimento de padrões. Entrada RNA Saída CTC-5
19 Heteroassociação Um conjunto de pares de padrões é armazenado na rede. Um padrão é apresentado e a rede associa esta entrada com o seu par. Memória associativa: corresponde a um processo de associação de padrões. Entrada RNA Saída CTC-5
20 Classificação Um conjunto de padrões é particionado em classes. Cada classe é definida por uma série de valores de atributos. Em resposta a uma entrada, a rede retorna informação sobre a pertinência do padrão apresentado a uma classe. A rede é treinada para classificar. Entrada Entrada 2 RNA RNA 3 3 Classe 0% 00% 2 0% 3 Classe 40% 2 60% 2 0% 3 CTC-5
21 Exemplo de Memória Associativa Memória associativa: associa o conceito A ao conceito B. (dado A, lembra-se de B) Pares de associação: Bach Música Borges Literatura Picasso Pintura Entrada Saída CTC-5
22 Exemplo de RNA: Memória Associativa 5 neurônios de entrada e 4 de saída. Neurônio binário: ativado =, inibido = - Função de ativação: Σ > 0 saída =, Σ < 0 saída = -, Σ = 0 saída inalterada A A2 A3 A4 A5 F F2 F3 F4 Entradas: Bach = [,,, -, -] Borges = [, -,, -, ] Picasso = [,, -, -, ] Saídas: música = [,, -, -] literatura = [, -,, -] pintura = [, -, -, ] CTC-5
23 Tabela de sinapses: A A2 A3 A4 A5 F 3-3 F F F Exemplo de RNA: Memória Associativa CTC-5 F Operação da RNA: = = = A A A A A f A A A A A w w w w w w w w w w w w w w w w w w w w f S S S S f F F F F
24 Operação Apresentando Bach: = = = = f S S S S f F F F F Exemplo de RNA: Memória Associativa CTC-5 Apresentando Bach ruidoso : = = = = f S S S S f F F F F CAPACIDADE DE GENERALIZAÇÃO!
25 Projeto de uma RNA O projeto de uma RNA envolve a determinação dos seguintes parâmetros: Neurônios: função de ativação. Conexões e disposição dos neurônios: topologia (arquitetura da rede). Pesos sinápticos: valores ou (no caso de pesos aprendidos), o algoritmo a ser utilizado e seus parâmetros particulares. Recall: procedimento a ser utilizado como a rede calcula a saída para uma dada entrada? Infelizmente, não existe uma receita única... CTC-5
26 Arquiteturas das RNAs Os neurônios de uma RNAs devem estar conectados entre si. Os neurônios são dispostos em camadas(layers): neurônios de uma mesma camada normalmente se comportam da mesma maneira. A disposição dos neurônios nas camadas e o padrão de conexão entre estas define a arquitetura da RNA: Redes sem realimentação (feedforward) Redes com realimentação ou recorrentes (recurrent) CTC-5
27 Arquiteturas de RNAs Sem realimentação: Neurônios agrupados em camadas. Sinal percorre a rede em uma única direção, da entrada para a saída. Neurônios da mesma camada não são conectados. Representante típico: Perceptron. Recorrentes: Saída de alguns neurônios alimentam neurônios da mesma camada (inclusive o próprio) ou de camadas anteriores. Sinal percorre a rede em duas direções. Memória dinâmica: capacidade de representar estados em sistemas dinâmicos. Representante típico: rede de Hopfield CTC-5
28 Aprendizado (ou treinamento) O aprendizado consiste na modificação dos pesos das conexões entre os neurônios. Os pesos iniciais (sinapses) são modificados de forma iterativa, por um algoritmo que segue um dos seguintes paradigmas de aprendizado: Aprendizado Supervisionado:é apresentado um conjunto de treino, consistindo de entradas e correspondentes saídas desejadas. Aprendizado por Reforço:para cada entrada apresentada, é produzida uma indicação (reforço) sobre a adequação das saídas correspondentes produzidas pela rede. Aprendizado Não-supervisionado:A rede atualiza seus pesos sem o uso de pares entrada-saídas desejadas e sem indicações sobre a adequação das saídas produzidas. CTC-5
29 Aprendizado Supervisionado Define-se um conjunto de treinamento (in,out) de entradas e correspondentes saídas desejadas. A distância entre a resposta atual e a desejada serve como uma medida de erro que é usada para corrigir os parâmetros da rede. Pesos da rede são ajustados para minimizar este erro. W Entrada Rede Neural Saíd a Medida de Erro Gerador de Distância Professor : produz a saída desejada CTC-5
30 Aprendizado por Reforço Para cada entrada apresentada, a rede calcula a saída e um professor indica a sua conveniência ou não. Não há medida explícita da distância entre resposta atual e a desejada. Pesos da rede são ajustados para maximizar os reforços recebidos. Frequentemente, a entrada é o estado de um sistema dinâmico, a saída é a ação produzida para o estado, e o professor é o próprio sistema que se deseja controlar: reforço positivo = ação boa, reforço negativo (punição) = ação ruim W Entrada Rede Neural Saíd a Reforço Professor : produz o reforço CTC-5
31 Aprendizado Não-Supervisionado Não existe comparação entre a saída obtida pela rede e a saída desejada. Aprendizado baseado na observação das respostas obtidas ou da saída desejada (e não dos dois simultaneamente). A Rede descobre por si mesmo propriedades e regularidades do sistema. Uso de métodos estatísticos. Envolve complexidade muito maior. W W In Rede Neural Out ou In Rede Neural Out CTC-5
32 Exemplo: Aprendizado em Memória Associativa "The general idea is an old one, that any two cells or systems of cells that are repeatedly active at the same time will tend to become 'associated', so that activity in one facilitates activity in the other. Regra de Hebb Regra de Aprendizado de Hebb:. Tabela W de pesos w ji inicialmente zerada. 2. Se F j e A i estiverem excitados, soma em w ji. 3. Se F j e A i estiverem inibidos, soma em w ji. 4. Se F j estiver inibido e A i excitado, subtrai de w ji. 5. Se F j estiver excitado e A i inibido, subtrai de w ji. Pares de treinamento são apresentados um a um, uma única vez. A A2 A3 A4 A5 F F2 F3 F4 CTC-5
33 Exemplo: Aprendizado em Memória Associativa Tabela inicial: A) Apresento par Borges = [, -,, -, ] literatura = [, -,, -] A =, F = w = 0+= A =, F 2 = - w 2 = 0-= - A =, F 3 = w 3 = 0+= A =, F 4 = - w 4 = 0-= - Etc A A2 A3 A4 A5 F F2 F3 F4 CTC-5
34 Tabela após A): Tabela após B): B) Apresento par Bach = [,,, -, -] música = [,, -, -] A =, F = w = += 2 A =, F 2 = w 2 = -+= 0 A =, F 3 =- w 3 = -= 0 A =, F 4 = - w 4 = --= -2 Etc C) Apresento par Picasso = [,, -, -, ] pintura = [, -, -, ] A =, F = w = 2+= 3 A =, F 2 = - w 2 = 0-= - A =, F 3 =- w 3 = 0-= - A =, F 4 = w 4 = -2+= - Etc CTC-5
35 Pesos finais: Exemplo: Aprendizado em Memória Associativa Regra de Hebb: Realiza aprendizado não-supervisionado Equação: w ji ( t + ) = w ji ( t) + α OUTj OUTi O que acontece se treinar mais de uma vez com um par? CTC-5
36 Principais arquiteturas de RNAs Dependem da estrutura, tipo de neurônio, regra de aprendizado,... Perceptron, Perceptron Multi-Camada (MLP), Rede de Hopfield, Rede de Kohonen, dezenas de outras ADALINE e MADALINE, Máquinas de Boltzmann, CTC-5
37 Perceptron(McCulloch e Pitts, 947) Arquitetura baseada em um neurônio discreto com função de ativação limiar: f(w t.x) = se nível de ativação > 0, - caso contrário. Pode produzir saída vetorial: vários neurônios em paralelo CTC-5
38 Operação do Perceptron: Exemplo Duas entradas: x, y Dois pesos: w, w 2 Uma entrada de bias [ w + w x w y] o = f y x y w w 2 w 0 Σ f w 0 + w x + w2 y = 0 w 0 + w x + w2 y > 0 w 0 + w x + w2 y < 0 x CTC-5
39 Poder de representação dos Perceptrons Conseguem representar qualquer função linearmente separável Função linearmente separável: consigo separar as classes com retas (ou planos, ou hiperplanos). neurônio: classes + e 2 neurônios: classes ++,+-,-+,- - A N neurônios: 2 N classes OK A B B Não OK CTC-5
40 Separação em 4 classes: Exemplo Neurônio : separa em classes C e C2 x w w 0 x Σ f y w 2 Neurônio 2: separa em classes C e C2 x w w 0 Σ f y y w 2 CTC-5
41 Separação em 4 classes: Exemplo w 0 x w w 2 Σ f x w y w 2 Σ f y w 0 CTC-5
42 Limitações do Perceptron Infelizmente, várias funções de interesse não são linearmente separáveis. Por exemplo,o Perceptron não pode representar o XOR (ou exclusivo). X2 X X2 Out a b 0 c 0 d 0 b a 0 d c X Out = 0 Out = CTC-5
43 Aprendizado no Perceptron: Regra Delta A regra de atualização dos pesos é: w i = w i + α δ x i Onde δ = (t - o) x i é a entrada, t é o valor desejado, o é a saída do perceptron e, α é uma constante pequena (ex: 0.), chamada taxa de aprendizado. Funciona para entradas/saídas discretas ou contínuas. CTC-5
44 Treinamento de Perceptrons CTC-5
45 MLP: Multi-layer Perceptrons Conjuntos de Perceptrons arranjados em diversas camadas. Pelo menos uma camada escondida. Soluciona problema de classificação não-linear: consegue formar regiões de decisão mais complexas CTC-5
46 MLP: Multi-layer Perceptrons X 2 A (-) B C Classificação requer 3 linhas discriminantes que criam 7 compartimentos e 2 regiões de decisão: uma para e outra para. (---) compartimentos Solução: Entradas x x 2 X Camada Escondida A B C out - (---),(--),..,() Classe Classe 2 CTC-5
47 Exemplo de Rede MLP: XOR x = x 2 = entradas binárias. w = w 2 = w 3 = w 4 =, w 5 = e w 6 = -2 f (w t.x) = se nível de ativação 0,5, 0 caso contrário. f 2 (w t.x) = se nível de ativação,5, 0 caso contrário. 0,5,5-2 0,5 Efetue o recall desta rede completando a tabela acima CTC-5
48 Exemplo de Rede MLP: XOR x = x 2 = entradas binárias. w = w 2 = w 3 = w 4 =, w 5 = e w 6 = -2 f (w t.x) = se nível de ativação 0,5, 0 caso contrário. f 2 (w t.x) = se nível de ativação,5, 0 caso contrário. 0,5,5-2 0,5 Preciso agora de um algoritmo para treinar os pesos CTC-5
49 MLP Sigmóide Neurônio com função de ativação limiar sigmóide: σ ( net) = ou σ ( net) = tanh( net) net + e σ ( x) σ ( x) + e = x = tanh σ ( x) = σ ( x) ( σ ( x) ) ( ) 2 ( x) σ ( x) = σ 2 ( x) Propriedade Interessante CTC-5
50 Como treinar um MLP? Descida do gradiente: Aprenda w i s que minimizam erro quadrático instantâneo (t d, saída esperada ) (o d, saída obtida) : h o h r E[ w] = ( t o 2 d d d ε O 2 ) O = total de saídas da rede x x CTC-5
51 Descida do Gradiente CTC-5
52 Descida do Gradiente (uma camada) CTC-5
53 Redefindo o erro para várias neurônios de saída CTC-5
54 Algoritmo Backpropagation (propagação de retorno) CTC-5
55 Algoritmo Backpropagation - 2 CTC-5
56 Inicialize w i s (pequeno valor aleatório) Repita até condição de término: w i = 0 Para cada exemplo d faça w i w i + w i o d σ(σ i w i x i,d ) w i w i + η (t d o d ) o d (-o d ) x i,d Inicialize w i s (pequeno valor aleatório) Repita até condição de término: Para cada exemplo d faça w i = 0 o d σ(σ i w i x i,d ) w i w i + η (t d o d ) o d (-o d ) x i,d w i w i + w i Aprendizado Batch (em lotes) Aprendizado Online (incremental) CTC-5
57 Algoritmo Backpropagation Generalização da descida do gradiente: várias camadas Inic. pesos (valores aleatórios pequenos) Para cada exemplo de treinamento: Para cada neurônio escondido h: Para cada neurônio de saída k: Para cada neurônio de saída k: Para cada neurônio escondido h: Atualize cada peso da rede w ij : w ij w ij + w ij onde δ k = w o σ ( ) h = whi xi i = k σ ( wkh xh k k ( ok )( tk ok o ) o δ = o ( o ) h h ij h =η δ j x k ij w hk δ ) k CTC-5
58 Exemplo Entrada Saída CTC-5
59 Aprendizado da representação (camada interna) Entrada Saída CTC-5
60 Backpropagation - CTC-5
61 Backpropagation - 2 CTC-5
62 Backpropagation - 3 CTC-5
63 Backpropagation - 4 CTC-5
64 Backpropagation - 5 CTC-5
65 Backpropagation - 6 CTC-5
66 Backpropagation - 7 CTC-5
67 Backpropagation - 8 CTC-5
68 Backpropagation - 9 CTC-5
69 Backpropagation - 0 CTC-5
70 Backpropagation - CTC-5
71 Backpropagation - 2 CTC-5
72 Backpropagation - 3 CTC-5
73 Backpropagation - 4 CTC-5
74 Backpropagation - 5 CTC-5
75 Backpropagation - 6 CTC-5
76 Backpropagation - 7 CTC-5
77 Backpropagation - 8 CTC-5
78 Todos os pesos atualizados Reinicia processo! CTC-5
79 Aprendizado: Erro e Pesos CTC-5
80 Aumento da velocidade de aprendizado: Momento error E E w ij Descida do Gradiente w ij E η w ij DG com Momento E wij η + µ w w ij ij w ij w ij new weight w ij CTC-5
81 Overfitting em RNAs CTC-5
82 Convergência e Critério de Parada Pode ficar preso em mínimo local Pesos podem divergir mas na prática, funciona bem! Critério de parada (para evitar overfitting): parar assim que erro no conjunto de validação começar a aumentar CTC-5
83 Faixa de operação σ(x) σ ( x) = + e x Faixa linear, # de unidades escondidas não interessa x CTC-5
84 Capacidade de uma RNA MLP Qualquer função booleana pode ser representada por uma RNA com uma camada escondida. Qualquer função contínua limitada pode ser aproximada por uma RNA com uma camada escondida. Qualquer função contínua pode ser aproximada por uma RNA com duas camadas escondidas. CTC-5
85 Avaliação do Backpropagation em MLP O desempenho do algoritmo de aprendizagem backpropagation está condicionado à modelagem adotada na rede neural e ao conjunto de dados utilizados no treinamento. O número de unidades de processamento das camadas de entrada e saída é usualmente determinado pela aplicação. Nas camadas ocultas, a relação não é tão transparente. O ideal é utilizar o menor número possível de unidades ocultas para que a generalização não fique prejudicada [REFENES993c] Se o número de neurônios ocultos for muito grande, a rede acaba memorizando os padrões apresentados durante o treinamento. [RUMELHART986] Contudo, se a rede possuir unidades ocultas em número inferior ao necessário, o algoritmo pode não conseguir ajustar os pesos adequadamente, impedindo a convergência para uma solução. A experiência ainda é a melhor indicação para a definição da topologia de um modelo conexionista [SURKAN990]. CTC-5
86 Exemplo: ALVINN Dirige um carro a 00 Km/h. CTC-5
87 Exemplo: MLP Sigmóide Reconhecimento de fala - separar 0 vogais entre h_d (em inglês) CTC-5
Inteligência Artificial
Objetivos lnteligência rtiicial Introdução a Redes Neurais rtiiciais Descrever as características básicas das Redes Neurais rtiiciais (RNs). Descrever o uncionamento de uma RN. Descrever algumas das principais
Leia maisClassificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Neurônio Natural Dendritos: recebe os estímulos transmitidos por outros neurônios Soma Sinapse Axônio Soma: coleta e combina informações vindas de outros neurônios Sinapse Dendrito
Leia mais3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
Leia maisRedes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com
Leia maisIntrodução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana
Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)
Leia maisserotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina
Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support
Leia maisRedes Neurais Artificial
Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado
Leia maisA evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:
Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em
Leia maisInteligência Artificial Redes Neurais
Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de
Leia maisTÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador
Leia maisRedes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco
Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.1. Introdução às Redes Neurais Artificiais (RNAs) 2.1.1. Motivação
Leia maisRedes Neurais Artificiais
Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Inteligência Artificial
Leia maisRedes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)
Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais
Leia maisIntrodução a Redes Neurais Artificiais com a biblioteca Encog em Java
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -
Leia maisREDES NEURAIS. Marley Maria B.R. Vellasco. ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada CONTEÚDO
REDES NEURAIS Marley Maria B.R. Vellasco ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada PUC-Rio Introdução CONTEÚDO Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos
Leia maisRedes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas
Leia maisGT-JeDi - Curso de Desenv. de Jogos IA para Jogos
GT-JeDi - Curso de Desenv. de Jogos IA para Jogos Gustavo Pessin 2006/2 - A07 Cronograma Conceitos Neurônio artificial Redes: Perceptron e Multi Layer Perceptron (MLP), Exemplos Separando cores Prevendo
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de
Leia maisRedes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas
Redes Neurais Dalma M. Falcão falcao@nacad.ufr.br http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs
Leia maisSistemas Inteligentes - Redes Neurais -
Sistemas Inteligentes - Redes Neurais - Marley Maria B.R. Vellasco ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada PUC-Rio Introdução CONTEÚDO Motivação, Objetivo, Definição, Características
Leia maisRedes Neurais Artificiais
Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais
Leia maisAlgoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.
CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado
Leia maisINTELIGÊNCIA ARTIFICIAL
INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos
Leia maisRedes Neurais Artificiais
Universidade Federal do Espírito Santo CCENS UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais
Leia maisREDES NEURAIS ARTIFICIAIS
REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO
Leia maisMineração de Dados em Biologia Molecular
Mineração Dados em Biologia Molecular Principais tópicos André C. P. L. F. Carvalho Monitor: Valéria Carvalho Res Neurais Artificiais Introdução Arquitetura Aprendizado Principais molos Perceptron MLP
Leia maisAprendizado de Máquinas. Multi-Layer Perceptron (MLP)
Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.
Leia maisRedes neurais artificiais
Redes neurais artificiais Conceitos em redes neuronais Redes neuronais artificiais (RNA): uma metáfora cerebral para processamento de informações Computação neuronal Muitos usos de RNA para Reconhecimento
Leia mais4 Redes Neurais Artificiais
4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características
Leia maisReconhecimento de Padrões/Objetos
Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)
Leia maisRedes Neurais Artificiais. Prof. João Alberto Fabro
Redes Neurais Artificiais Prof. João Alberto Fabro Redes Neurais Artificiais Conceitos Básicos Histórico Evolução O lugar das Redes Neurais dentro da IA Características Aplicações Redes Neurais Multicamadas
Leia mais3 INTELIGÊNCIA COMPUTACIONAL (IC)
40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica
Leia maisPERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado
PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
Leia maisRedes Neurais Artificiais (RNA)
Redes Neurais Artificiais (RNA) Definições: 1. Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. 2. Técnica de aproximação
Leia maisRedes Neurais Artificiais. Profa. Teresa Ludermir Sistemas Inteligentes
Redes Neurais Artificiais Profa. Teresa Ludermir Sistemas Inteligentes Por que Redes Neurais? Utilizar máquinas efetivamente para resolver problemas simples (humanos) Exemplo1: distinguir padrões visuais
Leia maisAprendizado de Máquina Introdução às Redes Neurais Artificiais
Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência
Leia maisRedes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS INTRODUÇÃO Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 REDES NEURAIS ARTIFICIAIS - RNAs Inspiradas no cérebro humano São modelos computacionais inspirados nos mecanismos
Leia maisHP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.
HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Leia maisProfa. Josiane M. Pinheiro outubro/2008
Baseada em: Stuart Russel e Peter Norving - Inteligência Artificial seção 20.5 Jorge M. Barreto Introdução às Redes Neurais Artificiais - http://www.inf.ufsc.br/~barreto/tutoriais/survey.pdf Cassia Yuri
Leia maisPrimeiras Redes Neurais Artificiais: Perceptron e Adaline
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor
Leia maisRedes Neurais Noções Gerais
Redes Neurais Noções Gerais Segundo Loesch (apupt Fernandes), Redes Neurais Artificiais são sistemas computacionais, de implementação em hardware e software, que imitam as habilidades computacionais do
Leia maisAprendizagem de Máquina. Redes Neurais Artificiais (RNAs)
Aprendizagem de Máquina Redes Neurais Artificiais (RNAs) Plano de Aula Introdução Motivação Biológica Perceptron Superfície de Decisão Descida do Gradiente Redes Multicamadas (Multilayer) Retropropagação
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica
Leia maisRedes Neurais Artificial. Prática. Inteligência Artificial
Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes
Leia maisPor que Redes Neurais?
Redes Neurais Profa. Jaqueline Brigladori Pugliesi Por que Redes Neurais? Utilizar máquinas efetivamente para resolver problemas simples (humanos) Exemplo: distinguir padrões visuais previsão do valor
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer
Leia mais3 REDES CLÁSSICAS PERCEPTRON E ADALINE
w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados
Leia maisResolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís
Resolução da Prova 1 SCC-5809 - Redes Neurais 2o. Semestre de 2011 - Prof. João Luís RESOLUÇÃO (2) 1. A figura abaixo mostra uma rede neural com um único neurônio escondido. Mostre que essa rede resolve
Leia maisMultiple Layer Perceptron
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Multiple Layer Perceptron David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Multiple Layer Perceptron (MLP) Backpropagation
Leia maisRede Perceptron. Capítulo 3
Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta
Leia maisRedes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005
Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005 1.3. Alguns aspectos históricos 1.4. Principais Conceitos 1.4.1. Definições 1.4.2. Alguns tipos de Arquitetura Revisão da Aula-1 x 1 1
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas
Leia maisTópicos Especiais: Inteligência Artificial REDES NEURAIS
Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Introdução Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia Universidade
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia maisINSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO
INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO Prof. Msc. Saulo Popov Zambiasi (saulopz@gmail.com) 12/07/08 08:09 Informação - ICPG - Criciuma - SC 1 Fundamentação Biológica, O Neurônio
Leia maisMotivação, Objetivo, Definição, Características Básicas e Histórico. Neurônio Artificial, Modos de Interconexão
REDES NEURAIS Marley Maria B.R. Vellasco ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada PUC-Rio Introdução CONTEÚDO Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos
Leia maisFundamentos das Redes Neurais: exemplos em Java
Fundamentos das Redes Neurais: exemplos em Java Recife 2008 Copyringt by 2007 Mêuser Valença Impresso no Brasil Printed in Brazil Editor Tarcísio Pereira Diagramação Maria do Carmo de Oliveira Capa Valeska
Leia maisInteligência Computacional
Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Na Aula Passada... O que é uma
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
Leia maisRedes Neurais Artificiais. Capítulos 1 e 2
Redes Neurais Artificiais Introdução Capítulos 1 e 2 Redes Neurais Artificiais (RNA) São modelos computacionais inspirados nos mecanismos de aprendizagem do cérebro humano. São modelos computacionais que
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas
Leia maisRedes Neurais MLP: Exemplos e Características
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons
Leia maisREDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio
REDES NEURAIS Sistema Nervoso 2 O que é? É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos Engloba o cérebro Sua unidade fundamental é o neurônio Se diferencia
Leia maisPós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO
Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO AULA 8 Redes Neurais Introdução As redes neurais são um tema da computação altamente inspirada na natureza que nos
Leia maisSCC Capítulo 3 Aprendizado
Aprendizado Supervisionado Não Supervisionado Tarefas SCC-5809 - Capítulo 3 Aprendizado João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2012 João Luís G. Rosa c 2012 - SCC-5809: Redes Neurais
Leia maisProfessor José Gomes de Carvalho Jr. Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO
Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO Redes Neurais Artificiais ou simplesmente Redes Neurais (também conhecidas como modelos conexionistas) têm sido, ao longo dos últimos anos, uma área de
Leia maisJAI 6 - Deep Learning Teoria e Prática
JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado
Leia maisRede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Leia maisInteligência Artificial. Redes Neurais Artificiais. Aula II Introdução
Universidade Estadual do Oeste do Paraná Curso de Bacharelado em Ciência da Computação Inteligência Artificial Redes Neurais Artificiais Aula II Introdução Introdução as Redes Neurais Artificiais - RNAs
Leia mais4 Redes Neurais Artificiais RNAs
66 4 Redes Neurais Artificiais RNAs Redes neurais artificial (RNA) são algoritmos que se baseiam no comportamento do cérebro humano. Dessa forma, imita a estrutura massivamente paralela do cérebro, com
Leia maisInteligência Artificial
Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial Aprendizagem (Redes Neurais) Prof. a Joseana Macêdo Fechine Régis
Leia maisTeorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.
SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,
Leia maisPrevisão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN
Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisFÁBIO BARROS TEBALDI ESTUDO DE REDES NEURAIS ARTIFICIAS PARA VERIFICAÇÃO E CLASSIFICAÇÃO DE ASSINATURAS ATRAVÉS DE IMAGENS
FUNDAÇÃO DE ENSINO EURÍPIDES SOARES DA ROCHA CENTRO UNIVERSITARIO EURÍPIDES DE MARÍLIA UNIVEM CURSO DE CIÊNCIA DA COMPUTAÇÃO BACHARELADO FÁBIO BARROS TEBALDI ESTUDO DE REDES NEURAIS ARTIFICIAS PARA VERIFICAÇÃO
Leia mais3 REDES NEURAIS ARTIFICIAIS
47 3 REDES NEURAIS ARTIFICIAIS Neste capítulo será apresentado um breve histórico das redes neurais artificiais de modo a situar o leitor, descrevendo-se suas aplicações, teorias e finalmente detalhando-se
Leia maisPRINCÍPIOS DE NEUROCOMPUTAÇÃO
PRINCÍPIOS DE NEUROCOMPUTAÇÃO Neurocomputação Funcionamento do cérebro humano e os neurônios Formação das conexões e como se concebe teoricamente a aquisição do conhecimento, formalizando-os em procedimentos
Leia maisFundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução
Leia maisRedes Neurais INTELIGÊNCIA ARTIFICIAL
Redes Neurais INTELIGÊNCIA ARTIFICIAL 1 2 Introdução As redes neurais são um tema da computação altamente inspirada na natureza que nos cerca. Durante anos e anos os homens trabalharam para fazer computadores
Leia mais