Redes Neurais. Artificiais. Fabricio Breve Parte 2. 19/04/2018 Fabricio Breve. Bias. Sinais de entrada. Pesos sinápticos.

Tamanho: px
Começar a partir da página:

Download "Redes Neurais. Artificiais. Fabricio Breve Parte 2. 19/04/2018 Fabricio Breve. Bias. Sinais de entrada. Pesos sinápticos."

Transcrição

1 Redes Neurais Parte 2 Artificiais x 1 w k1 Bias b k x 1 x 2 x 3 x m +1 y 1 y 2 y o Sinais de entrada x 2 x m Fabricio Breve fabricio@rc.unesp.br w k2 w km Pesos sinápticos Σ Junção aditiva v k f(. ) Saída y k 19/04/2018 Fabricio Breve 1

2 Redes Neurais Artificiais PERCEPTRON DE UMA ÚNICA CAMADA 19/04/2018 Fabricio Breve 2

3 Perceptron Desenvolvida por Frank Rosenblatt, 1958 Utiliza modelo de McCulloch-Pitts como neurônio Rede mais simples para classificação de padrões linearmente separáveis Primeiro modelo de aprendizado supervisionado 19/04/2018 Fabricio Breve 3

4 Separabilidade Linear 19/04/2018 Fabricio Breve 4

5 Separabilidade Linear 19/04/2018 Fabricio Breve 5

6 Separabilidade Linear Entradas Saída Entradas Saída x 1 x 2 x 1 AND x x 1 x 2 x 1 XOR x (0,1) (1,1) (0,1) (1,1)? (0,0) (1,0) (0,0) (1,0) 19/04/2018 Fabricio Breve 6

7 Perceptron Simples para Classificação de Padrões Uma única camada de neurônios com pesos sinápticos ajustáveis e bias Sob condições adequadas converge para o conjunto de pesos adequado Particularmente se padrões de treinamento pertencem a classes linearmente separáveis Prova de convergência: Teorema de Convergência do Perceptron 19/04/2018 Fabricio Breve 7

8 Perceptron Simples para Classificação de Padrões Neurônios similares aos de McCulloch e Pitts com função de ativação de limiar Mas incluindo um bias Principal contribuição de Rosenblatt Regra de aprendizado para treinar os perceptrons para resolver problemas de reconhecimento e classificação de padrões 19/04/2018 Fabricio Breve 8

9 Entradas Perceptron Simples para Classificação de Padrões +1 w 0 = b x 1 x 2 w 1 w 2 u Função de Ativação y Σ f(u) Saída x m w m Junção de Soma Perceptron mais simples para realizar classificação de padrões 19/04/2018 Fabricio Breve 9

10 Treinamento Para cada padrão de entrada x i calcule a saída da rede y i Se não for a resposta esperada calcule o erro: A saída esperada é conhecida (treinamento supervisionado) e i = d i y i Atualizar pesos de acordo com as regras: w t + 1 = w t + αe i x i b t + 1 = b t + αe i onde w R 1 m, x i R 1 m, e b R /04/2018 Fabricio Breve 10

11 Algoritmo de treinamento X R N m é a matriz de N padrões de entrada Cada padrão tem dimensão m Cada padrão é uma linha de X d é o vetor de saídas desejadas f( ) é uma função de limiar 1 e 1, 0 e 1, etc... Critério de parada Número fixo de iterações max_it Soma E dos erros quadráticos, de cada padrão de entrada, igual a zero (E = 0) Algoritmo retorna o vetor de pesos w é a taxa de aprendizado 19/04/2018 Fabricio Breve 11

12 Algoritmo de treinamento procedimento [w] = perceptron(max_it,α,x,d) inicializar w // ajuste para zero ou pequenos valores aleatórios inicializar b // ajuste para zero ou um pequeno valor aleatório t 1; E 1; enquanto t < max_it & E > 0 faça E 0; para i de 1 até N faça // para cada padrão de treinamento y i ƒ(wx it + b) // saída da rede para x i e i d i - y i // determinar o erro para x i w w + α e i x i // atualizar o vetor de pesos b b + α e i // atualizar o termo de bias E E + e 2 i // acumular o erro fim-para t t + 1 fim-enquanto fim-procedimento Algoritmo de aprendizado de um perceptron simples. A função f(. ) é uma função de limiar, e a saída desejada é 1 se um padrão pertence à classe ou 1 (ou 0 ) se ele não pertence à classe. 19/04/2018 Fabricio Breve 12

13 Perceptron de Múltiplas Saídas para Classificação de Padrões A regra de aprendizado pode ser facilmente estendida para lidar com mais de um neurônio de saída Neste caso o vetor y com a saída de cada neurônio é dado por: y = f Wx i T + b onde W R o m, x i R 1 m, y i R o 1, e b R o 1 19/04/2018 Fabricio Breve 13

14 Perceptron de Múltiplas Saídas para Classificação de Padrões 19/04/2018 Fabricio Breve 14

15 Algoritmo de Treinamento (Perceptron com múltiplas saídas) D é a matriz de saídas desejadas Cada coluna é a saída para um dos padrões de entrada Vetor de erro é calculado subtraindo o vetor de saída do vetor de saída esperada e i = d i y i Se os padrões forem linearmente separáveis o algoritmo converge 19/04/2018 Fabricio Breve 15

16 Algoritmo de Treinamento (Perceptron com múltiplas saídas) procedimento [W] = perceptron(max_it,α,x,d) inicializar W // ajuste para zero ou pequenos valores aleatórios inicializar b // ajuste para zero ou pequenos valores aleatórios t 1; E 1; enquanto t < max_it & E > 0 faça E 0; para i de 1 até N faça // para cada padrão de treinamento y i ƒ(wx it + b) // saída da rede para x i e i d i - y i // determinar o erro para x i W W + α e i x i // atualizar o vetor de pesos b b + α e i // atualizar o termo de bias E E + soma(e 2 ji ) // j = 1,...,o fim-para t t + 1 fim-enquanto fim-procedimento Algoritmo de aprendizado de um perceptron de múltiplas saídas. A função f(. ) é uma função de limiar, e a saída desejada é 1 se um padrão pertence à classe ou 1 (ou 0 ) se ele não pertence à classe. Note que e i, d i, y i, e b são vetores e W é uma matriz. e ji corresponde ao erro do neurônio j quando recebe o padrão de entrada i. 19/04/2018 Fabricio Breve 16

17 Função Softmax Em problemas com múltiplas saídas temos neurônios que classificam um-versus-resto. Exemplo: vermelho X verde e azul azul X verde e vermelho verde X vermelho e azul Nesse caso, usar função de limiar pode levar à ambiguidades, com mais de um neurônio disparando ao mesmo tempo. Como resolver este problema? 19/04/2018 Fabricio Breve 17

18 Função Softmax Usar valores contínuos de saída pode ser uma solução Podem ser interpretados como um índice de confiança na resposta. Uma estratégia comum é usar uma função de ativação do tipo softmax na camada de saída. y = f u j = exp u j onde j = 1,, K K exp u k σ k=1 Dessa forma a saída dos neurônios fica contínua, no intervalo [0 1], com soma 1. Cada exemplo é classificado pelo neurônio que apresentou maior valor de saída. 19/04/2018 Fabricio Breve 18

19 Exemplos de Aplicação AND x 0 x 1 x 2 dd Entrada 1: Entrada 2: Entrada 3: Entrada 4: x 1 S 0 S 1 w 0 w 1 S out y Peso inicial: w 0 = 0, w 1 = 0, w 2 = 0 Taxa de aprendizado: α = 0,5 Função de ativação de limiar: s out > 0 y = 1 s out 0 y = 0 x 2 S 2 Lembre-se: x 0 = b w X d /04/2018 Fabricio Breve

20 Exemplos de Aplicação (1,0) (1,1) (0,0) (0,1) 19/04/2018 Fabricio Breve 20

21 Exemplos de Aplicação 1º CICLO Entrada 1: Entrada 2: Entrada 3: Entrada 4: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( ) = f(0) = 0 y = d y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( ) = f(0) = 0 y = d y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( ) = f(0) = 0 y = d y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( ) = f(0) = 0 y d w 0 = w 0 + (d y) x 0 = 0 + 0,5 (1 0) 1 = 0,5 w 1 = w 1 + (d y) x 1 = 0 + 0,5 (1 0) 1 = 0,5 w 2 = w 2 + (d y) x 2 = 0 + 0,5 (1 0) 1 = 0,5 19/04/2018 Fabricio Breve 21

22 Exemplos de Aplicação 2º CICLO Entrada 1: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f(0, , ,5 0) = f(0,5) = 1 y d w 0 = w 0 + (d y) x 0 = 0,5 + 0,5 (0 1) 1 = 0 w 1 = w 1 + (d y) x 1 = 0,5 + 0,5 (0 1) 0 = 0,5 w 2 = w 2 + (d y) x 2 = 0,5 + 0,5 (0 1) 0 = 0,5 Entrada 2: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( , ,5 1) = f(0,5) = 1 y d w 0 = w 0 + (d y) x 0 = 0 + 0,5 (0 1) 1 = 0,5 w 1 = w 1 + (d y) x 1 = 0,5 + 0,5 (0 1) 0 = 0,5 w 2 = w 2 + (d y) x 2 = 0,5 + 0,5 (0 1) 1 = 0 19/04/2018 Fabricio Breve 22

23 Exemplos de Aplicação 2º CICLO Entrada 3: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( 0, , ) = f(0) = 0 y = d Entrada 4: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( 0, , ) = f(0) = 0 y d w 0 = w 0 + (d y) x 0 = 0,5 + 0,5 (1 0) 1 = 0 w 1 = w 1 + (d y) x 1 = 0,5 + 0,5 (1 0) 1 = 1 w 2 = w 2 + (d y) x 2 = 0 + 0,5 (1 0) 1 = 0,5 19/04/2018 Fabricio Breve 23

24 Exemplos de Aplicação 3º CICLO Entrada 1: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( ,5 0) = f(0) = 0 y = d Entrada 2: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f ,5 1 = f 0,5 = 1 y d, w 0 = w 0 + (d y) x 0 = 0 + 0,5 (0 1) 1 = 0,5 w 1 = w 1 + (d y) x 1 = 1 + 0,5 (0 1) 0 = 1 w 2 = w 2 + (d y) x 2 = 0,5 + 0,5 (0 1) 1 = 0 19/04/2018 Fabricio Breve 24

25 Exemplos de Aplicação 3º CICLO Entrada 3: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( 0, ) = f(0,5) = 1 y d w 0 = w 0 + (d y) x 0 = 0,5 + 0,5 (0 1) 1 = 1 w 1 = w 1 + (d y) x 1 = 1 + 0,5 (0 1) 1 = 0,5 w 2 = w 2 + (d y) x 2 = 0 + 0,5 (0 1) 0 = 0 Entrada 4: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( , ) = f( 0,5) = 0 y d w 0 = w 0 + (d y) x 0 = 1 + 0,5 (1 0) 1 = 0,5 w 1 = w 1 + (d y) x 1 = 0,5 + 0,5 (1 0) 1 = 1 w 2 = w 2 + (d y) x 2 = 0 + 0,5 (1 0) 1 = 0,5 19/04/2018 Fabricio Breve 25

26 Exemplos de Aplicação 4º CICLO Entrada 1: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( 0, ,5 0) = f( 0,5) = 0 y = d Entrada 2: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( 0, ,5 1) = f(0) = 0 y = d 19/04/2018 Fabricio Breve 26

27 Exemplos de Aplicação 4º CICLO Entrada 3: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( 0, ,5 0) = f(0,5) = 1 y d w 0 = w 0 + (d y) x 0 = 0,5 + 0,5 (0 1) 1 = 1 w 1 = w 1 + (d y) x 1 = 1 + 0,5 (0 1) 1 = 0,5 w 2 = w 2 + (d y) x 2 = 0,5 + 0,5 (0 1) 0 = 0,5 Entrada 4: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( , ,5 1 = f(0) = 0 y d w 0 = w 0 + (d y) x 0 = 1 + 0,5 (1 0) 1 = 0,5 w 1 = w 1 + (d y) x 1 = 0,5 + 0,5 (1 0) 1 = 1 w 2 = w 2 + (d y) x 2 = 0,5 + 0,5 (1 0) 1 = 1 19/04/2018 Fabricio Breve 27

28 Exemplos de Aplicação 5º CICLO Entrada 1: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( 0, ) = f( 0,5) = 0 y = d Entrada 2: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( 0, ) = f(0,5) = 1 y d w 0 = w 0 + (d y) x 0 = 0,5 + 0,5 (0 1) 1 = 1 w 1 = w 1 + (d y) x 1 = 1 + 0,5 (0 1) 0 = 1 w 2 = w 2 + (d y) x 2 = 1 + 0,5 (0 1) 1 = 0,5 19/04/2018 Fabricio Breve 28

29 Exemplos de Aplicação 5º CICLO Entrada 3: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( ,5 0) = f(0) = 0 y = d Entrada 4: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( ,5 1) = f(0,5) = 1 y = d 19/04/2018 Fabricio Breve 29

30 Exemplos de Aplicação 6º CICLO Entrada 1: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( ,5 0) = f( 1) = 0 y = d Entrada 2: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( ,5 1) = f( 0,5) = 0 y = d Entrada 3: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( ,5 0) = f(0) = 0 y = d Entrada 4: y = f(w 0 x 0 + w 1 x 1 + w 2 x 2 ) y = f( ,5 1) = f(0,5) = 1 y = d 19/04/2018 Fabricio Breve 30

31 Exemplos de Aplicação x 2 y = 0 (1,0) (1,1) (0,0) (0,1) y y f f w x 1 1 w 2 x 1x1 0,5x2 2 b 1 x 1 19/04/2018 Fabricio Breve 31

32 Exercício Dado o seguinte cadastro de pacientes: Nome Febre Enjoo Manchas Dores Diagnóstico João sim sim pequenas sim doente Pedro não não grandes não saudável Maria sim sim pequenas não saudável José sim não grandes sim doente Ana sim não pequenas sim saudável Leila não não grandes sim doente Ensine uma rede Perceptron a distinguir: Paciente saudáveis Pacientes doentes 19/04/2018 Fabricio Breve 32

33 Exercício Testar a rede para novos casos: Nome Febre Enjoo Manchas Dores Diagnóstico Luis não não pequenas sim? Laura sim sim grandes sim? 19/04/2018 Fabricio Breve 33

34 Generalização Classificação correta de padrões não utilizados no treinamento ou com ruído Ocorre através da detecção de características relevantes do padrão de entrada durante o treinamento Padrões desconhecidos são atribuídos a classes cujos padrões apresentam características semelhantes Garante tolerância a falhas 19/04/2018 Fabricio Breve 34

35 ADALINE Widrow e Hoff, 1960 Introduzidos quase ao mesmo tempo que o Perceptron ADAptive LInear NEuron Função de ativação linear em vez de limiar Também restrito a problemas linearmente separáveis 19/04/2018 Fabricio Breve 35

36 ADALINE Algoritmo de treinamento LMS (Least Mean Squared) Mais poderoso que a regra de aprendizado do Perceptron Aprendizado continua mesmo após aprender o padrão de treinamento Mais robusto a ruído 19/04/2018 Fabricio Breve 36

37 Redes Neurais Artificiais PERCEPTRON DE MÚLTIPLAS CAMADAS 19/04/2018 Fabricio Breve 37

38 Perceptron de Múltiplas Camadas Arquitetura de RNA mais utilizada Possui uma ou mais camadas intermediárias de nós Grande Funcionalidade Uma camada intermediária: qualquer função contínua ou Booleana Duas camadas intermediárias: qualquer função Treinada com o algoritmo Backpropagation 19/04/2018 Fabricio Breve 38

39 Perceptron de Múltiplas Camadas Histórico: Em 1969 Minsky e Papert lançaram um livro mostrando as limitações do Perceptron Basicamente sua incapacidade de lidar com problemas não linearmente separáveis 19/04/2018 Fabricio Breve 39

40 Perceptron de Múltiplas Camadas Histórico: Rosenblatt e Widrow sabiam dessas limitações e propuseram o uso de múltiplas camadas Mas não conseguiram generalizar seus algoritmos para treinar essas redes mais poderosas Isto diminuiu bastante o interesse em redes neurais nos anos 70 19/04/2018 Fabricio Breve 40

41 Perceptron de Múltiplas Camadas Histórico Apenas nos anos 80 surgiu o algoritmo de retropropagação de erro Uma generalização do LMS Popularizado por Rumelhart et. al (1986) Fez ressurgir o interesse em redes neurais 19/04/2018 Fabricio Breve 41

42 Perceptron de Múltiplas Camadas Uma camada de entrada, uma ou mais camadas intermediárias e uma camada de saída Treinamento: Algoritmo de Retropropagação Camadas intermediárias e ocultas tipicamente usam funções sigmoides g( a) 1 1 exp( a)

43 Perceptron de Múltiplas Camadas x 1 x 2 y 1 Sinal de entrada (estímulo) x 3 x m y 2 y o Sinal de saída (resposta) Camada de entrada Primeira camada oculta Segunda camada oculta Camada de saída 19/04/2018 Fabricio Breve 43

44 Algoritmo de Retropropagação Consiste basicamente em dois passos: Passo para frente Sinal aplicado à entrada vai se propagando pelos nós computacionais da rede até chegar aos nós de saída Passo para trás Todos os pesos sinápticos são ajustados de acordo com uma regra de correção de erro

45 Variações do Algoritmo de Retropropagação Momentum Quickprop Newton Levenberg Marquardt Super Self-Adjusting Backpropagation (supersab) Métodos de gradiente conjugado 19/04/2018 Fabricio Breve 45

46 Por que múltiplas camadas? 19/04/2018 Fabricio Breve 46

47 Por que múltiplas camadas? 19/04/2018 Fabricio Breve 47

48 Por que múltiplas camadas? Lippmann, R.P., "An introduction to computing with neural nets," ASSP Magazine, IEEE, vol.4, no.2, pp.4,22, Apr 1987 doi: /MASSP URL: 19/04/2018 Fabricio Breve 48

49 Por que múltiplas camadas? Unidades intermediárias Detectores de características Geram uma codificação interna da entrada Dado um número grande o suficiente de unidades intermediárias é possível formar representações internas para qualquer distribuição dos padrões de entrada 19/04/2018 Fabricio Breve 49

50 Por que múltiplas camadas? Número de camadas intermediárias necessárias 1 camada: suficiente para aproximar qualquer função contínua ou Booleana 2 camadas: suficiente para aproximar qualquer função 3 ou mais camadas: pode facilitar o treinamento da rede Cuidado: cada vez que o erro é propagado para uma camada anterior, ele se torna menos útil 19/04/2018 Fabricio Breve 50

51 Dificuldades de aprendizado Overfitting Depois de um certo ponto do treinamento, a rede piora ao invés de melhorar Memoriza padrões de treinamento, incluindo suas peculiaridades (piora generalização) Alternativas Encerrar treinamento mais cedo (early stop) Reduzir pesos (weight decay) 19/04/2018 Fabricio Breve 51

52 Overfitting Pode ser utilizado um subconjunto de validação para testar a capacidade de generalização Parando o treinamento quando a capacidade de generalização deixa de melhorar Exemplo: dividindo os exemplos em: Subconjunto de Treinamento Usados para treinar a rede, sinal de erro usado para ajustar pesos. Subconjunto de Validação Usado para testar a capacidade de generalização da rede a cada época, ou para testar diferentes arquiteturas/algoritmos de rede candidatas. Subconjunto de Testes Usado apenas após o treinamento, para testar a capacidade da rede escolhida e treinada, em classificar dados que ainda não foram vistos. 19/04/2018 Fabricio Breve 52

53 Erro Overfitting 0,12 0,1 0,08 A partir desta época o erro continua diminuindo nos dados de treinamento, mas piora nos dados de validação, caracterizando o overfitting. 0,06 0,04 0,02 0 Treinamento Épocas Validação 19/04/2018 Fabricio Breve 53

54 Atualização dos pesos Ciclo Apresentação de todos os exemplos de treinamento durante o aprendizado Exemplos devem ser apresentados em ordem aleatória Abordagens para atualização dos pesos Por padrão (online) Por ciclo (batch) 19/04/2018 Fabricio Breve 54

55 Atualização dos Pesos Por padrão Pesos são atualizados após apresentação de cada padrão Estável se taxas de aprendizado forem pequenas Taxas elevadas rede instável Reduzir progressivamente as taxas Mais rápida, principalmente se o conjunto de treinamento for grande e redundante Requer menos memória 19/04/2018 Fabricio Breve 55

56 Atualização dos Pesos Por ciclo Pesos atualizados depois que todos os padrões de treinamento forem apresentados Geralmente mais estável Pode ser lento se o conjunto de treinamento for grande e redundante Melhor método depende da aplicação 19/04/2018 Fabricio Breve 56

57 Redes Neurais Artificiais REDES DE FUNÇÃO DE BASE RADIAL 19/04/2018 Fabricio Breve 57

58 Redes de Função de Base Radial Radial Basis Function Vê a rede neural como um problema de ajuste de curva em um espaço de alta dimensionalidade Aprender equivale a encontrar uma superfície num espaço multidimensional que forneça o melhor ajuste para os dados de treinamento do ponto de vista estatístico 19/04/2018 Fabricio Breve 58

59 Redes de Função de Base Radial Possui 3 camadas: Entrada: nós sensoriais que recebem os dados do ambiente. Intermediária (oculta): faz uma transformação não-linear do espaço de entrada para um espaço oculto, normalmente de alta dimensionalidade Saída: linear, e fornece a resposta da rede ao sinal de entrada x 1 x 2 φ m x d entradas bias φ 0 φ 1 φ 2 funções de base saídas y 1 y 2 y c

60 Redes de Função de Base Radial f(u k ) f 2 u k exp u k k f(u k ) f u k u u k u k (1,0) (1,1) (0,0) (0,0) (0,1) (1,0) (0,1) (1,1) 19/04/2018 Fabricio Breve 60

61 MÁQUINAS DE VETOR DE SUPORTE 19/04/2018 Fabricio Breve 61

62 Máquinas de Vetor de Suporte Support Vector Machines Máquina linear Constrói um hiperplano em que a margem de separação entre classes seja máxima Baseadas na Teoria do Aprendizado Estatístico Vapnik e Chervonenkis em 1968 Reduz erro de generalização 19/04/2018 Fabricio Breve 62

63 Perceptron Máquinas de Vetor de Suporte Hiperplano: Perceptron X Máquinas de Vetor de Suporte 19/04/2018 Fabricio Breve 63

64 Redes Neurais Artificiais MAPAS AUTO- ORGANIZÁVEIS 19/04/2018 Fabricio Breve 64

65 Mapas Auto-Organizáveis Modelos não supervisionados Baseado em aprendizagem competitiva Os neurônios competem entre si para serem ativados ou disparados Apenas um será ativado em dado instante de tempo Winner-Takes-All O vencedor leva tudo Somente o peso do neurônio vencedor e de seus vizinhos é atualizado Os pesos aproximam o padrão de entrada 19/04/2018 Fabricio Breve 65

66 Mapas Auto-Organizáveis Competição Para cada padrão de entrada os neurônios da rede competem entre si para determinar o vencedor Cooperação O neurônio vencedor determina sua vizinhança espacial, os neurônios vizinhos também serão estimulados Adaptação O neurônio vencedor e seus vizinhos terão seus vetores de peso atualizados Atualização dos vizinhos proporcional a distância 19/04/2018 Fabricio Breve 66

67 Mapa de Kohonen Função de Vizinhança R = 0 R = 1 R = 2 Vizinhança de grade retangular 19/04/2018 Fabricio Breve 67

68 Mapa de Kohonen Função de Vizinhança R = 0 R = 1 R = 2 Vizinhança de grade hexagonal 19/04/2018 Fabricio Breve 68

69 Mapas Auto-Organizáveis Procedimento adaptativo. O vencedor e seus vizinhos são movidos em direção ao padrão de entrada. A unidade vencedora realiza a maior atualização em direção ao padrão de entrada, seguida de suas vizinhas imediatas. (a) Vizinhança uni-direcional. (b) Vizinhança bi-direcional. 19/04/2018 Fabricio Breve 69

70 Mapas Auto-Organizáveis 19/04/2018 Fabricio Breve 70

71 Pombo Galinha Pato Ganso Coruja Falcão Águia Raposa Cão Lobo Gato Tigre Leão Cavalo Zebra Vaca Mapas Auto-Organizáveis Nomes de Animais e seus Atributos Animal pequeno é tem gosta de médio grande patas patas pelos cascos crina/juba penas caçar correr voar nadar /04/2018 Fabricio Breve 71

72 Mapas Auto-Organizáveis cão.. raposa.. gato.. águia coruja tigre... lobo falcão... leão pombo cavalo galinha vaca.... ganso zebra pato.. Mapa de características contendo neurônios rotulados com respostas mais fortes e suas respectivas entradas 19/04/2018 Fabricio Breve 72

73 Mapas Auto-Organizáveis cão cão raposa raposa raposa gato gato gato águia águia cão cão raposa raposa raposa gato gato gato águia águia lobo lobo lobo raposa gato tigre tigre tigre coruja coruja lobo lobo leão leão leão tigre tigre tigre falcão falcão lobo lobo leão leão leão tigre tigre tigre falcão falcão lobo lobo leão leão leão coruja pombo falcão pombo pombo cavalo cavalo leão leão leão pombo galinha galinha pombo pombo cavalo cavalo zebra vaca vaca vaca galinha galinha pombo pombo zebra zebra zebra vaca vaca vaca galinha galinha pato ganso zebra zebra zebra vaca vaca vaca pato pato pato ganso Mapa semântico obtido através do uso de mapeamento simulado de penetração de eletrodo. O mapa é dividido em três regiões apresentando: pássaros, espécies pacíficas e caçadores 19/04/2018 Fabricio Breve 73

74 Redes Neurais Artificiais OUTRAS REDES NEURAIS 19/04/2018 Fabricio Breve 74

75 Outras Redes Neurais Máquinas de Comitê Redes ART (Adaptive Resonance Theory) Redes de Hopfield Máquina de Boltzmann Redes de Crença Sigmóide Máquina de Helmholtz Echo States Networks 19/04/2018 Fabricio Breve 75

76 Redes Neurais Artificiais APLICAÇÕES DE REDES NEURAIS ARTIFICIAIS 19/04/2018 Fabricio Breve 76

77 Aplicações de Redes Neurais Artificiais Reconhecimento de voz e imagem Diagnóstico médico Controle de robôs Controle de processos químicos Otimização Finanças Fusão de sensores Bioinformática 19/04/2018 Fabricio Breve 77

78 RNAs na indústria RNAs são muito utilizadas em indústrias no exterior Especialmente quando instalação rápida ou grande velocidade de operação é requerida Ex.: Caixas de peixes congelados da Birds Eye são inspecionados visualmente por uma RNA Caixas imperfeitas são rejeitadas para exportação 19/04/2018 Fabricio Breve 78

79 RNAs no setor de serviços Tem havido um grande número de pesquisas sobre a utilização de RNAs para previsão financeira Tendências sugerem expansão destas aplicações Ex.: Cartão de crédito VISA utiliza RNAs para liberação de cartões e detecção de fraudes 19/04/2018 Fabricio Breve 79

80 RNAs na medicina RNAs têm sido utilizadas para Diagnóstico de doenças Rede treinada para, dado um conjunto de sintomas, diagnosticar a doença e sugerir melhor tratamento Câncer Diabetes Reconhecimento de imagens médicas Reconhecimento de fraturas Reconhecimento de anomalias no coração 19/04/2018 Fabricio Breve 80

81 RNAs na bioinformática Existem trabalhos que utilizam RNAs para: Reconhecimento de genes em seqüências de DNA Análise de expressão gênica Previsão da estrutura de proteínas 19/04/2018 Fabricio Breve 81

82 Empresas que utilizam RNAs General Motors Mercedes Benz Nasa AT&T British Telecom Lucent technology Citibank Glaxo British Aerospace Post office Rhodia 19/04/2018 Fabricio Breve 82

83 Empresas que utilizam RNAs no Brasil Usiminas Marinha do Brasil Petrobrás CEPEL Rhodia Belgo-Mineira Itaipu Embraer Furnas CHESF Banco Itaú Banco do Brasil 19/04/2018 Fabricio Breve 83

84 Conclusão Redes Neurais têm sido bem sucedidas em problemas como Reconhecimento de Padrões, dentre outros. Alguns problemas: Como definir valores de seus parâmetros? Algoritmos Genéticos Como explicar as decisões tomadas pela rede? Extração de conhecimento 19/04/2018 Fabricio Breve 84

85 Referências Bibliográficas CASTRO, Leandro Nunes. Fundamentals of Natural Computing: Basic Concepts, Algorithms, And Applications. CRC Press, CARVALHO, André Ponce de Leon F. de. Notas de Aula, BROWNLEE, Jason. Clever Algorithms: Nature-Inspired Programming Recipes. Jason Brownlee, HAYKIN, Simon. Neural Networks and Learning Machines, 3rd Edition. Prentice Hall, KOVACS, Zsolt L. Redes Neutrais Artificiais: Fundamentos e Aplicações. Livraria da Física, BISHOP, Christopher M. Pattern Recognition and Machine Learning. Springer, /04/

Por que Redes Neurais?

Por que Redes Neurais? Redes Neurais Profa. Jaqueline Brigladori Pugliesi Por que Redes Neurais? Utilizar máquinas efetivamente para resolver problemas simples (humanos) Exemplo: distinguir padrões visuais previsão do valor

Leia mais

Mineração de Dados em Biologia Molecular

Mineração de Dados em Biologia Molecular Mineração Dados em Biologia Molecular Principais tópicos André C. P. L. F. Carvalho Monitor: Valéria Carvalho Res Neurais Artificiais Introdução Arquitetura Aprendizado Principais molos Perceptron MLP

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais x 1 w k1 Bias b k +1 +1 x 1 x 2 x 3 x m +1 y 1 y 2 y o Sinais de entrada x 2 x m Fabricio Breve fabricio@rc.unesp.br w k2 w km Pesos sinápticos Σ Junção aditiva v k f(. ) Saída

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Neurônio Natural Dendritos: recebe os estímulos transmitidos por outros neurônios Soma Sinapse Axônio Soma: coleta e combina informações vindas de outros neurônios Sinapse Dendrito

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Mapas Auto-Organizáveis 1. O Mapa Auto-Organizável (SOM) Sistema auto-organizável inspirado no córtex cerebral. Nos mapas tonotópicos do córtex, p. ex., neurônios vizinhos

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Mapas Auto-Organizáveis Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP) Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Universidade Federal do Espírito Santo CCENS UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Camada Única Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

REDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM)

REDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM) REDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM) APRENDIZADO COMPETITIVO Os algoritmos de aprendizado não-supervisionado são geralmente baseados em uma forma de competição entre os neurônios. O método

Leia mais

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

Aula 7 RNA Redes Auto-Organizáveis de Kohonen

Aula 7 RNA Redes Auto-Organizáveis de Kohonen 2COP229 Aula 7 RNA Redes Auto-Organizáveis de Kohonen 2COP229 Sumário 1- Introdução 2- Processo de Aprendizado Competitivo 3- Mapas auto-organizáveis de Kohonen (SOM) 4- Projeto Prático 1-Introdução 2COP229

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de

Leia mais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos

Leia mais

Redes Neurais Artificial

Redes Neurais Artificial Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -

Leia mais

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja

Leia mais

Redes neurais artificiais

Redes neurais artificiais Redes neurais artificiais Conceitos em redes neuronais Redes neuronais artificiais (RNA): uma metáfora cerebral para processamento de informações Computação neuronal Muitos usos de RNA para Reconhecimento

Leia mais

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos GT-JeDi - Curso de Desenv. de Jogos IA para Jogos Gustavo Pessin 2006/2 - A07 Cronograma Conceitos Neurônio artificial Redes: Perceptron e Multi Layer Perceptron (MLP), Exemplos Separando cores Prevendo

Leia mais

Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação. Perceptron

Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação. Perceptron Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Perceptron Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com Perceptron

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

Mapas Auto-Organizáveis de Kohonen SOM

Mapas Auto-Organizáveis de Kohonen SOM Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Reconhecimento de Padrões/Objetos

Reconhecimento de Padrões/Objetos Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)

Leia mais

Mapas Auto-Organizáveis de Kohonen SOM

Mapas Auto-Organizáveis de Kohonen SOM Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Horários Aulas Sala 3 CCET [quinta-feira, 8:20 12:00] Atendimento

Leia mais

Multiple Layer Perceptron

Multiple Layer Perceptron Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Multiple Layer Perceptron David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Multiple Layer Perceptron (MLP) Backpropagation

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas Redes Neurais Dalma M. Falcão falcao@nacad.ufr.br http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs

Leia mais

SCC Capítulo 4 Perceptron de Camada Única

SCC Capítulo 4 Perceptron de Camada Única Perceptron LMS SCC-5809 - Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes Neurais 1/45 Sumário Perceptron

Leia mais

Redes Neurais Artificiais (RNA)

Redes Neurais Artificiais (RNA) Redes Neurais Artificiais (RNA) Definições: 1. Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. 2. Técnica de aproximação

Leia mais

Classificadores Lineares

Classificadores Lineares Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Classificadores Lineares David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Funções Discriminantes Lineares Perceptron Support

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais Artificial. Prática. Inteligência Artificial Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

Neurocomputação Parte 2

Neurocomputação Parte 2 Neurocomputação Parte 2 Fabricio Breve - fbreve@gmail.com 25/09/2007 Fabricio Breve 1 REDES NEURAIS ARTIFICIAIS 25/09/2007 Fabricio Breve 2 Por que Redes Neurais? Computadores convencionais são eficientes

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Inteligência Artificial

Leia mais

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior Aula 2 Introdução Redes Neurais Prof. Dr. Sylvio Barbon Junior barbon@uel.br Sumário 1- Inteligência Artificial 2- Introdução às Redes Neurais Artificiais 3- Modelos de Redes Neurais supervisionados e

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

lnteligência Artificial Introdução a Redes Neurais Artificiais

lnteligência Artificial Introdução a Redes Neurais Artificiais lnteligência Artificial Introdução a Redes Neurais Artificiais Objetivos Descrever as características básicas das Redes Neurais Artificiais (RNAs). Descrever o funcionamento de uma RNA. Descrever algumas

Leia mais

Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005

Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005 Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005 1.3. Alguns aspectos históricos 1.4. Principais Conceitos 1.4.1. Definições 1.4.2. Alguns tipos de Arquitetura Revisão da Aula-1 x 1 1

Leia mais

Redes Neurais não Supervisionadas: SOM

Redes Neurais não Supervisionadas: SOM Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais não Supervisionadas: SOM DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Aplicações em Telecomunicações Prof. João Marcos Meirelles da Silva, D.Sc. Professor Adjunto II do Departamento de Engenharia de Telecomunicações Universidade Federal Fluminense

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Introdução Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia Universidade

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS INTRODUÇÃO Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 REDES NEURAIS ARTIFICIAIS - RNAs Inspiradas no cérebro humano São modelos computacionais inspirados nos mecanismos

Leia mais

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais

Leia mais

João Paulo Teixeira Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança

João Paulo Teixeira  Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança joaopt@ipb.pt www.ipb.pt/~joaopt Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança Evolução das RNA Tipos de Redes Perceptrão Rede Linear Redes Recorrentes Redes Radiais Redes Feed-Forward

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

SUPPORT VECTOR MACHINE - SVM

SUPPORT VECTOR MACHINE - SVM SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial 1 Redes Neurais - Definição O que é Rede Neural ou Rede Neuronal Artificial (RNA)? É um modelo computacional que objetiva

Leia mais

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

3 REDES CLÁSSICAS PERCEPTRON E ADALINE w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas II Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de

Leia mais

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs)

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs) Aprendizagem de Máquina Redes Neurais Artificiais (RNAs) Plano de Aula Introdução Motivação Biológica Perceptron Superfície de Decisão Descida do Gradiente Redes Multicamadas (Multilayer) Retropropagação

Leia mais

4 Redes Neurais Artificiais

4 Redes Neurais Artificiais 4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características

Leia mais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais Classificação de Padrões Abordagem prática com Redes Neurais Artificiais Agenda Parte I - Introdução ao aprendizado de máquina Parte II - Teoria RNA Parte III - Prática RNA Parte IV - Lições aprendidas

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe

Leia mais

Rede Perceptron. Capítulo 3

Rede Perceptron. Capítulo 3 Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta

Leia mais

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado

Leia mais

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão) Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação

Leia mais

Back Propagation. Dicas para o BP

Back Propagation. Dicas para o BP Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 14 Support Vector Machines (SVM) 2016.1 Prof. Augusto Baffa Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest

Leia mais

Redes Neurais Artificiais. Prof. João Alberto Fabro

Redes Neurais Artificiais. Prof. João Alberto Fabro Redes Neurais Artificiais Prof. João Alberto Fabro Redes Neurais Artificiais Conceitos Básicos Histórico Evolução O lugar das Redes Neurais dentro da IA Características Aplicações Redes Neurais Multicamadas

Leia mais