KDD E MINERAÇÃO DE DADOS
|
|
- Simone Neto
- 4 Há anos
- Visualizações:
Transcrição
1 KDD E MINERAÇÃO DE DADOS Métodos de Mineração de Dados Prof. Ronaldo R. Goldschmidt Instituto Militar de Engenharia Seção de Engenharia de Computação (SE/8) ronaldo.rgold@ime.eb.br / ronaldo.rgold@gmail.com
2 MÉTODOS DE MINERAÇÃO DE DADOS Considerações Iniciais Métodos Tradicionais Métodos Bioinspirados Tarefas de KDD x Métodos de Mineração de Dados
3 MÉTODOS DE MINERAÇÃO DE DADOS Considerações Iniciais Métodos Tradicionais Métodos Bioinspirados Tarefas de KDD x Métodos de Mineração de Dados
4 CONSIDERAÇÕES INICIAIS Demanda por Tarefas de KDD Diversidade de Métodos e Implementações Necessidades de parametrização e experimentação Exemplos de Métodos de Mineração de Dados: K-NN, Classificadores Bayesianos, K-Means, Apriori, C4.5 Etc Classificação: Métodos Tradicionais Métodos Bioinspirados
5 MÉTODOS DE MINERAÇÃO DE DADOS Considerações Iniciais Métodos Tradicionais Métodos Bioinspirados Tarefas de KDD x Métodos de Mineração de Dados
6 K NEAREST NEIGHBORS (K-NN) Características Básicas: Aprendizado Baseado em Instâncias / Casos (ABI) Não há geração de modelo de conhecimento explícito Dados do conjunto de treinamento representam o modelo Estratégia Geral dos Métodos ABI: Pré-processamento do conjunto de dados e do registro a ser analisado Cálculo da similaridade do registro a ser analisado e os registros do conjunto de dados Estimativa da saída com base nas similaridades calculadas
7 K NEAREST NEIGHBORS (K-NN) Entradas: Valor de K (número de vizinhos) Métrica Conjunto de dados (referência) Novo registro Procedimento Básico: Cálculo da distância do novo registro a cada um dos registros do conjunto de referência Identificação dos k registros que apresentam menor distância em relação ao novo registro (i.e., mais similares) Infere a saída a partir das informações contidas nos k registros identificados Critérios de Inferência: Variam bastante entre as implementações Mais usuais: Média Aritmética e Moda.
8 K NEAREST NEIGHBORS (K-NN) REGISTRO:
9 K-NN TAREFA DE CLASSIFICAÇÃO REGISTRO: CLASSE Saída: a classe mais frequente (Moda).
10 K-NN TAREFA DE REGRESSÃO REGISTRO: VALOR NUMÉRICO Saída: Interpolação dos valores recuperados. Ex: Média.
11 K NEAREST NEIGHBORS (K-NN) Escolha do valor de K (número de vizinhos) Depende do conjunto de referência. Heurística geral: quanto maior o valor de k, menor o efeito de eventuais ruídos no conjunto de referência. Valores grandes para k tornam mais difusas as fronteiras entre as classes existentes. Problema de otimização. Critério de interpolação: Tipo do atributo de saída (nominal x quantitativo) Pesos iguais x Pesos ponderados pela distância ao registro a ser analisado Questão para pesquisa: Métricas para lidar com atributos nominais?
12 CLASSIFICADORES BAYESIANOS Sejam: um conjunto de informações C1, C2,...,Cn Classes um objeto / caso. Um Classificador Bayesiano é um método estatístico que: a) Computa P(C=Ck/ ) para K=1,2,,n b) Seleciona a classe Ck com maior probabilidade
13 CLASSIFICADORES BAYESIANOS Cálculo das Probabilidades Condicionais: P (C = Ck ) =? P(C = Ck A 1 = a 1, A 2 = a 2, A 3 = a 3,...) = (Subst. ) P(A1 a1, A2 a2, A3 a3,... C ck) *P(c P( A1 a1, A2 a2, A3 a3,...) ck) (Re gra _ de _ Bayes ) Denominador comum pode ser descartado P(A 1 = a 1, A 2 = a 2, A 3 = a 3,... C = ck) * P(C=ck)
14 CLASSIFICADORES BAYESIANOS Cálculo das Probabilidades Condicionais: Sup. independência entre os atributos Classificador Ingênuo P(C = Ck ) é expressa por: P(A 1 = a 1 C = ck) * P(A 2 = a 2 C=ck) *...* P(C=ck) Onde, para atributos nominais: P( Ai ai C ck) count ( Ai ai C count ( C ck) ck)
15 CLASSIFICADORES BAYESIANOS Exemplo: Consideremos o seguinte conjunto de dados: (Jogar Tênis)
16 CLASSIFICADORES BAYESIANOS Exemplo: São 2 Classes: Jogar = Sim, Jogar = Não Os atributos Ai são: Aparência, Temperatura, Umidade e Vento Pergunta-se: Um dia ensolarado, quente, de alta umidade e vento fraco é adequado para jogar tênis?
17 CLASSIFICADORES BAYESIANOS Exemplo: P(Jogar = Sim ensolarado, quente, alta umidade, vento fraco) = 0,0071 P(Jogar = Não ensolardo quente, alta umidade, vento fraco) = 0,0274 Resposta do Classificador Bayesiano: Jogar = Não
18 CLASSIFICADORES BAYESIANOS Exemplo: Cálculo das Probabilidades: P(Jogar = Sim ensolarado, quente, alta unidade, vento fraco) = (2/9) * (2/9) * (3/9) * (6/9) * (9/14) = 0,0071
19 CLASSIFICADORES BAYESIANOS Exemplo: Cálculo das Probabilidades: P(Jogar = Não ensolarado, quente, alta unidade, vento fraco) = (3/5) * (2/5) * (4/5) * (2/5) * (5/14) = 0,0274
20 CLASSIFICADORES BAYESIANOS Não existe modelo de conhecimento explícito Depende do conjunto de referência (distribuição dos dados). Questões para pesquisa: Como adaptar para tratar atributos quantitativos? E se removermos a hipótese de independência entre os atributos?
21 FAMÍLIA K-MEANS Métodos voltados à tarefa de Agrupamento Separação dos registros em n clusters Maximizar/Minimizar similaridade intra/inter cluster
22 FAMÍLIA K-MEANS Estrutura Comum Inicialização: Seleção de um conjunto com k centroides de clusters iniciais no espaço de dados. Esta seleção pode ser aleatória ou de acordo com alguma heurística. Cálculo da Distância: Calcula a distância euclidiana de cada ponto ou padrão ao centroide de cada cluster. Atribui cada ponto ao cluster cuja distância do ponto ao centroide do cluster seja mínima. Recálculo dos Centroides: Recalcula o centroide de cada cluster pela média dos pontos de dados atribuídos ao respectivo cluster.
23 FAMÍLIA K-MEANS Estrutura Comum (cont.) Condição de Convergência: Repete os passos 2 e 3 até que o critério de convergência tenha sido atingido. Em geral, considera-se um valor de tolerância do erro quadrático médio (MSE Mean Squared Error) abaixo do qual a distribuição dos pontos de dados pelos clusters é considerada satisfatória.
24 Estrutura Comum (Cont.) FAMÍLIA K-MEANS Diagrama de Atividades:
25 FAMÍLIA K-MEANS Exemplo de Processamento
26 FAMÍLIA K-MEANS Implementações K-Means: Atributos Quantitativos Sem restrição aos Centroides K-Modes: Atributos Nominais K-Prototypes: Atributos Quantitativos e Nominais K-Medoids: Centroides são registros do conjunto de dados
27 FAMÍLIA K-MEANS Considerações Gerais Escolha do valor de K (número de grupos) Depende do conjunto de referência. Problema de otimização. Desempenho: Sensível a ruídos. Bom quando grupos são densos e bem separados uns dos outros.
28 FAMÍLIA APRIORI Base Comum Busca por Regras de Associação frequentes e válidas. Regra de Associação: Y, onde e Y são itemsets (conjuntos de itens) tais que Y=. Identificação dos conjuntos de itens frequentes: Y / D >= MinSup (Suporte Mínimo) Identificação, dentre os conjuntos de itens frequentes, quais as regras válidas: Y / >= MinConf (Confiança Mínima )
29 FAMÍLIA APRIORI Base Comum Princípio da Anti-Monotonicidade do Suporte: Subconjuntos de conjuntos frequentes precisam ser frequentes Busca por Cliques Maximais em Grafos Bipartidos: Transações Itens
30 FAMÍLIA APRIORI Variantes de Implementação Implementações Sequenciais: Basic, GSP, DHP, Partition, DIC, Eclat, MaxEclat, Clique e MaxClique,... Implementações Paralelas: ParEclat, ParMaxEclat, ParClique, ParMaxClique, P-Partition,
31 FAMÍLIA C4.5 Base Comum Baseiam-se no cálculo de entropia. Dividem recursivamente o conjunto de dados procurando gerar partições puras. Uma partição é pura quando só contém registros de uma mesma classe. Exemplo de medida para a impureza (inconsistência) de uma partição : Gini(T) = 1 - p j 2 (onde p j é a frequência relativa da classe j em T). Quanto menor, melhor (mais puro ou menos impuro) Sexo Est_Civil Result Count(*) M C A 2 M C I 1 Gini(T) = 1 [(2/3) 2 + (1/3) 2 ] = 0,44 F S A 3 M S I 1
32 FAMÍLIA C4.5 Seja S(A 1, A 2,..., A m, C) um conjunto de dados, sendo C o atributo objetivo do problema. C 1, C 2,..., C k são valores de C. Ex: Renda Despesa Resposta (AP, NG, ES) Alta Baixa AP Alta Alta ES Baixa Baixa NG Baixa Alta NG A 1 Renda A 2 Despesa C Resposta C 1 AP C 2 ES C 3 - NG info S = - j j freq C,S freq C,S log S S k 2 j=1 bits T infox T = info T T n i=1 i i gain = info T - info x T
33 FAMÍLIA C4.5 Árvore de Decisão - Exemplo: Baixa Renda Alta NG Alta ES Despesa Baixa AP Regras de Produção: 1) Se Renda = Baixa Então Resultado = NG 2) Se Renda = Alta E Despesa = Alta Então Resultado = ES 3) Se Renda = Alta E Despesa = Baixa Então Resultado = AP
34 FAMÍLIA C4.5 Gera modelo de conhecimento explícito. Implementações: ID3, C4.5, CART, J4.8, etc Questão para pesquisa: Como trata atributos quantitativos?
35 MÉTODOS DE MINERAÇÃO DE DADOS Considerações Iniciais Métodos Tradicionais Métodos Bioinspirados Tarefas de KDD x Métodos de Mineração de Dados
36 MÉTODOS DE MINERAÇÃO DE DADOS Métodos Bioinspirados Baseados em Algoritmos Genéticos Rule Evolver Sumarização, Classificação Baseados em Redes Neurais Rede MultiLayer Perceptron (MLP) com Backpropagation Classificação, Regressão, Previsão de Séries Temporais Redes SOM (Self Organizing Maps) Clusterização Baseados em Lógica Nebulosa Wang & Mendel Regressão, Previsão de Séries Temporais
37 ALGORITMOS GENÉTICOS: RULE EVOLVER Motivação Identificar padrões de empresas em um BD Exemplo: Qual o padrão das empresas do Cluster 1? Se receita_serviço 1 (Voz) = 5000<R$<7000 & receita_serviço 2 (Telex) = 7000<R$<8000 & código_atividade = 13 (Ind. Mat.Elétrico Eletrônico e Comunicação) & 10 < #_Filiais < 50 & #_Empregados > 100 Então Empresa pertence ao Cluster 1(In-Transaction)
38 ALGORITMOS GENÉTICOS: RULE EVOLVER Cromossoma Regra Genes atributos do banco de dados cruzamento P 1 Receita Serviço <R$<2000 Receita Serviço <R$<9000 COD_ATIV = 13 10<#_Filiais<50 Empregados>100 P 2 Receita Serviço <R$<7000 Receita Serviço <R$<8000 COD_ATIV = 14 30<#_Filiais<60 Empregados>300 F 1 Receita Serviço <R$<2000 Receita Serviço <R$<9000 COD_ATIV = 14 30<#_Filiais<60 Empregados>300 F 2 Receita Serviço <R$<7000 Receita Serviço <R$<8000 COD_ATIV = 13 10<#_Filiais<50 Empregados>100
39 ALGORITMOS GENÉTICOS: RULE EVOLVER Regras Forma Geral SE C 1 E C 2 E E C n ENTÃO CONCLUSÃO Onde C i, i=1,,n são condições envolvendo atributos preditivos Conclusão envolve um atributo objetivo com valor fixo, não manipulado pelo AG
40 ALGORITMOS GENÉTICOS: RULE EVOLVER Representação do Cromossoma Min 1 Max 1 Min 2 Max 2 Min n Max n Atb 1 Atb 2 Atb n Onde Atb i pode ser: Quantitativo Faixa de valores: [Min i,max i ] Categórico Contém um único símbolo codificado em Min i
41 ALGORITMOS GENÉTICOS: RULE EVOLVER Operadores de Crossover Disponíveis Um Ponto Dois Pontos Uniforme Média Aritmético Lógico Híbrido
42 ALGORITMOS GENÉTICOS: RULE EVOLVER Op. Lógico OU p/ Atributos Categóricos Representação Real Interpretação do valor de um atributo categórico (alfabeto de cardinalidade k): - Real Binário com k bits - Cada posição indica ausência (0) ou presença (1) do símbolo correspondente
43 ALGORITMOS GENÉTICOS: RULE EVOLVER Ex: Tipo Residência: Dom. = {própria, alugada, parente, funcional} Alelo Op. Lógico OU p/ Atributos Categóricos Decodificação Tipo Res própria alugada própria ou alugada própria ou alugada ou parente ou funcional (don t care) Não informada (Null)
44 ALGORITMOS GENÉTICOS: RULE EVOLVER Operador de Crossover Lógico (E/OU) F 1 = P 1 OU P 2 F 2 = P 1 E P 2 P null F null P null F null
45 ALGORITMOS GENÉTICOS: RULE EVOLVER Operador de Crossover Híbrido O Crossover Aritmético para Atributos Quantitativos O Crossover Lógico proposto para Atributos Categóricos
46 ALGORITMOS GENÉTICOS: RULE EVOLVER Operadores de Mutação Disponíveis Mutação Simples Mutação Don t Care Mutação Creep Mutação Lógica Mutação Híbrida Mutação de Extensão Lógica
47 ALGORITMOS GENÉTICOS: RULE EVOLVER Operador de Mutação Lógica (Negação/Troca Aleatória) I = NOT I 0011 null 1100 null
48 ALGORITMOS GENÉTICOS: RULE EVOLVER Operador de Mutação Híbrida A Mutação CREEP para Atributos Quantitativos A Mutação Lógica para Atributos Categóricos
49 ALGORITMOS GENÉTICOS: RULE EVOLVER Funções de Avaliação: FAbrangência e FAcurácia Seja R uma Regra qualquer: SE P ENTÃO O Define-se: Acurácia de R : P O / P Abrangência de R : P O / O
50 REDES NEURAIS: RECORDAÇÃO Estrutura de uma Rede Neural: Atividade Neural I 1 H 1 O 1 I 2 H 2 O 2 I 3 H 3 O 3 Entrada Pesos Escondida Pesos Saída
51 REDES NEURAIS: RECORDAÇÃO Elementos Básicos de um Neurônio Artificial: Neurônio Artificial Pesos 1 Propagação Ativação 2 3
52 REDES NEURAIS: RECORDAÇÃO Elementos Básicos de um Neurônio Artificial: Conexões entre Processadores - a cada conexão existe um peso sináptico que determina o efeito da entrada sobre o processador W ik i W ik k W ik expressa a força da conexão entre os neurônios i e k Exemplos: Alguns autores referenciam W ik como W ki 1 W 18 = W 59 =
53 REDES NEURAIS: RECORDAÇÃO Elementos Básicos de um Neurônio Artificial: Regra de Propagação Combina as entradas de um processador com os pesos sinápticos associados às conexões que chegam a tal processador. net k é a saída do combinador linear, onde: net k = W ik * O i net k Potencial de ativação do processador k O i W ik Saída do processador i Peso da conexão entre os neurônios i e k O 1 1 = 0.2 W 13 = 1.2 O W 23 = = net 3 = (O 1 *W 13 ) + (O 2 *W 23 ) = (0.2*1.2) + ((-1)*(-0.3)) = = 2.7
54 REDES NEURAIS: RECORDAÇÃO Elementos Básicos de um Neurônio Artificial: Estado de Ativação S k Função de Ativação - determina o novo valor do Estado de Ativação do processador S k = F (net k ) Onda quadrada binária (degrau) 1 0 net Linear por partes (rampa) 0 Sigmóide 1 y Tangente Hiperbólica 1 y 0 net 0 net -1
55 REDES NEURAIS: MLP COM BACK-PROPAGATION Princípio Básico:
56 REDES NEURAIS: MLP COM BACK-PROPAGATION MLP Ilustração da Dinâmica do Treinamento (BP) Atividade Alvo Neural I 1 H 1 O 1 I 2 H 2 O 2 Dados para Treinamento I 3 H 3 O 3 Entrada Pesos Escondida Pesos Saída
57 REDES NEURAIS: MLP COM BACK-PROPAGATION MLP Ilustração da Dinâmica do Treinamento (BP) Atividade Alvo Neural I 1 H 1 O 1 I 2 H 2 O 2 Dados para Treinamento I 3 H 3 O 3 Entrada Pesos Escondida Pesos Saída
58 REDES NEURAIS: MLP COM BACK-PROPAGATION MLP Ilustração da Dinâmica do Treinamento (BP) Atividade Alvo Neural I 1 H 1 O 1 I 2 H 2 O 2 Dados para Treinamento I 3 Entrada Pesos H 3 Escondida Pesos O 3 Saída
59 REDES NEURAIS: MLP COM BACK-PROPAGATION MLP Ilustração da Dinâmica do Treinamento (BP) Erro = - I 1 H 1 O 1 I 2 H 2 O 2 Dados para Treinamento I 3 H 3 O 3 Entrada Pesos Escondida Pesos Saída
60 REDES NEURAIS: MLP COM BACK-PROPAGATION MLP Ilustração da Dinâmica do Treinamento (BP) Atividade Alvo Neural I 1 H 1 O 1 I 2 H 2 O 2 Dados para Treinamento I 3 H 3 O 3 Entrada Pesos Escondida Pesos Saída
61 REDES NEURAIS: MLP COM BACK-PROPAGATION MLP Ilustração da Dinâmica do Treinamento (BP) Atividade Alvo Neural I 1 H 1 O 1 I 2 H 2 O 2 Dados para Treinamento I 3 H 3 O 3 Entrada Pesos Escondida Pesos Saída
62 REDES NEURAIS: MLP COM BACK-PROPAGATION MLP Ilustração da Dinâmica do Treinamento (BP) Atividade Alvo Neural I 1 H 1 O 1 I 2 H 2 O 2 Dados para Treinamento I 3 Entrada Pesos H 3 Escondida Pesos O 3 Saída
63 REDES NEURAIS: MLP COM BACK-PROPAGATION MLP Ilustração da Dinâmica do Treinamento (BP) Erro = - I 1 H 1 O 1 I 2 H 2 O 2 Dados para Treinamento I 3 H 3 O 3 Entrada Pesos Escondida Saída
64 REDES NEURAIS: MLP COM BACK-PROPAGATION MLP Ilustração da Dinâmica do Treinamento (BP) Atividade Alvo Neural I 1 H 1 O 1 I 2 H 2 O 2 Dados para Treinamento I 3 H 3 O 3 Entrada Pesos Escondida Pesos Saída
65 REDES NEURAIS: MLP COM BACK-PROPAGATION MLP Ilustração da Dinâmica do Treinamento (BP) Atividade Alvo Neural I 1 H 1 O 1 I 2 H 2 O 2 Dados para Treinamento I 3 H 3 O 3 Entrada Pesos Escondida Pesos Saída
66 REDES NEURAIS: MLP COM BACK-PROPAGATION MLP Ilustração da Dinâmica do Treinamento (BP) Atividade Alvo Neural I 1 H 1 O 1 I 2 H 2 O 2 Dados para Treinamento I 3 Entrada Pesos H 3 Escondida Pesos O 3 Saída
67 REDES NEURAIS: MLP COM BACK-PROPAGATION Regra de Aprendizagem: Regra Delta Generalizada A métrica de aprendizagem erro quadrático (a ser minimizado) E( k) e(k) 2 2 y d ( k) 2 y(k) ˆ 2 A regra de aprendizagem W i ( k 1) E( k)
68 REDES NEURAIS: MLP COM BACK-PROPAGATION Exemplos de Dificuldades no Treinamento Velocidade de aprendizado Mínimos Locais e Platôs Perda da Capacidade de Generalização (Overfitting)
69 REDES NEURAIS: MLP COM BACK-PROPAGATION Boa Generalização (Desejável): A Rede Neural responde corretamente a um padrão de entrada fora do conjunto de treinamento. Interpola corretamente os novos pontos apresentados.
70 REDES NEURAIS: MLP COM BACK-PROPAGATION Os valores de entrada dos neurônios após a camada de entrada são calculados pela regra de propagação, em geral o produto escalar: netj(n)= ji(n)yi(n) onde, ji(n) correponde aos pesos das conexões que chegam ao neurônio j na n-ésima iteração. yi(n) é o i-ésimo sinal de entrada do neurônio j na n-ésima iteração.
71 REDES NEURAIS: MLP COM BACK-PROPAGATION Em todos os neurônios, a função de ativação deve ser diferenciável. A função de ativação é aplicada ao potencial de ativação de cada neurônio (netj(n)): yj(n)= j(netj(n)) É muito comum a utilização da função logística sigmoidal: yj(n)=1/(1+e -netj(n) )
72 REDES NEURAIS: MLP COM BACK-PROPAGATION Uma vez geradas as saídas dos neurônios da camada de saída da rede, o algoritmo Back-Propagation inicial a segunda etapa do treinamento para o padrão apresentado. Neste momento, o sinal de erro produzido pelo neurônio j da camada de saída na iteração n é calculado por: ej(n) = dj(n) yj(n) O gradiente local de cada neurônio j da camada de saída no instante n é calculado pela expressão: j(n)= ej(n) j(netj(n))
73 REDES NEURAIS: MLP COM BACK-PROPAGATION Esta etapa prossegue, passando os sinais de erro da direita para a esquerda, calculando o gradiente local associado a cada neurônio não pertencente à camada de saída (1), e ajustando os pesos das conexões (2) associadas a ele. j(n)= j(netj(n)) k(n) kj(n) (1) ji(n) = j(n) yi(n) (2)
74 REDES NEURAIS: SOM Kohonen SOM (Self Organizing Feature Maps) Objetivo: Agrupar dados de entrada em função da detecção de padrões de similaridade ou diferença entre esses dados, viabilizada pela redundância de informação existente. Características Pertence à família de redes auto-organizáveis (mapas de características auto-organizáveis) Voltada ao agrupamento de padrões que compartilham características comuns Utiliza aprendizado competitivo (neurônios competem entre si pelo direito de atualizar seus pesos) Teuvo Kohonen foi responsável por sua criação, além de outros modelos de RNAs
75 REDES NEURAIS: SOM Kohonen SOM (Self Organizing Feature Maps) Funcionamento: Quando um padrão de entrada p é apresentado, a rede procura o neurônio mais similar a p. Durante o seu treinamento, a rede aumenta a semelhança do neurônio escolhido e de seus vizinhos ao padrão p. Dessa forma, a rede constrói um mapa topológico onde os neurônios que estão fisicamente mais próximos respondem de forma semelhante a padrões de entrada semelhantes. Características A rede SOM apresenta respaldo biológico, pois no córtex cerebral, neurônios ativos apresentam conexões mais fortes com neurônios que estão fisicamente mais próximos.
76 REDES NEURAIS: SOM Kohonen SOM (Self Organizing Feature Maps) Características A rede SOM utiliza aprendizado competitivo e não supervisionado em que neurônios da camada de saída competem entre si para se tornarem ativos, ou seja, quem gera o maior valor de saída. A competição é do tipo inner takes all, em que apenas um neurônio pode vencer a disputa. Utiliza conexões laterais inibitórias e o conceito de vizinhos topológicos, simulando o efeito do chapéu mexicano (vizinhos próximos ao neurônio vencedor também têm seus pesos ajustados).
77 REDES NEURAIS: SOM Kohonen SOM (Self Organizing Feature Maps) Arquitetura Na rede SOM, os neurônios se organizam em uma grade ou reticulado, geralmente bidimensional, podendo algumas vezes ser unidimensional. Cada neurônio recebe todas as entradas e funciona como um discriminador ou extrator de características Quanto mais semelhante a entrada for de um vetor de pesos de um neurônio, maior será a saída gerada por este neurônio.
78 REDES NEURAIS: SOM Kohonen SOM (Self Organizing Feature Maps) Treinamento Algoritmo: Inicializa pesos e parâmetros Repita Para todo padrão de treinamento faça Definir neurônio vencedor Atualizar os pesos deste neurônio e seus vizinhos Se o número do ciclo for múltiplo de N então Reduzir taxa de aprendizado Reduzir Vizinhança Fim se Fim para Até que o mapa não mude
79 Kohonen SOM (Self Organizing Feature Maps) Treinamento REDES NEURAIS: SOM O estado de ativação de um neurônio é determinado pela distância entre n seu vetor de pesos e o vetor de entrada: ( x ) A atualização dos pesos do neurônio vencedor e dos situados na sua vizinhança é calculada por: 1ª. Eq caso o neurônio pertença à vizinhança do vencedor e 2ª. Eq. caso contrário. ji( t) ( t)( xi ( t) ji( t)) ji( t 1) ji( t) Redução da região de vizinhança j i 1 i ji
80 Método de Wang & Mendel (Fuzzy Logic) Tem como objetivo, a partir de um conjunto de dados de entrada e saída, onde x1 e x2 são entradas e y é a saída, gerar um conjunto de regras que generalize o conhecimento embutido nos dados; Pode ser generalizado para o caso de múltiplas entradas e saídas;
81 Método de Wang & Mendel (Fuzzy Logic) Passo 1- Dividir os espaços de entrada e saída em regiões fuzzy Domínios das variáveis intervalos onde provavelmente os valores vão estar 1 : [a-, a+] 2 : [b-, b+] Y : [c-, c+]
82 Método de Wang & Mendel (Fuzzy Logic) Divida cada domínio em 2N + 1 regiões N pode ser diferente para variáveis diferentes e os tamanhos das regiões podem ser iguais ou diferentes; Atribuir um rótulo a cada região SN (Small N),..., S1 (Small 1),..., BN (Big N);
83 Método de Wang & Mendel 1 : [a-, a+] Domínio de x1: N = 2 (5 regiões) 2 : [b-, b+] Y : [c-, c+] Domínio de x2: N= 3 (7 regiões) Domínio de y: N= 2 (5 regiões)
84 Método de Wang & Mendel Passo 2 Gerar uma regra para cada conjunto de dados conhecido: Determine o graus de pertinência dos dados em cada região B1(x 1 (1) ) = 0.8 B2 (x 1 (1) ) =0.2 (0 nos demais conjuntos)
85 Método de Wang & Mendel S1(x 2 (1) ) = 0.7 S2 (x 2 (1) ) =0.2 (0 nos demais conjuntos)
86 Método de Wang & Mendel CE(y (1) ) = 0.9 B1 (y (1) ) =0.1 (0 nos demais conjuntos)
87 Método de Wang & Mendel B1(x 1 (1) ) = 0.8 B2 (x 1 (1) ) =0.2 (0 nos demais conjuntos) S1(x (1) 2 ) = 0.7 S2 (x (1) 2 ) =0.2 (0 nos demais conjuntos) CE(y (1) ) = 0.9 B1 (y (1) ) =0.1 (0 nos demais conjuntos) Atribua cada valor dos dados à região com maior grau de pertinência x 1 (1) é considerado como B1 x 2 (1) é considerado como S1 y (1) é considerado como CE - Obtenha uma regra para cada dado de entrada e saída Regra 1: Se x 1 é B1 e x 2 é S1 então y é CE Regra 2: Se x 1 é B1 e x 2 é CE então y é B1
88 Método de Wang & Mendel Passo 3 Atribua um grau a cada regra D(Regra j) O grau de cada regra é definido pelo produto dos graus de pertinência: Regra 1: Se x 1 é B1 e x 2 é S1 então y é CE D(Regra 1) = 0.8 * 0.7 * 0.9 = Regra 2: Se x 1 é B1 e x 2 é CE então y é B1 D(Regra 2) = 0.6 * 1 * 0.7 = 0.42
89 Método de Wang & Mendel Caso exista conhecimento prévio que permita atribuir graus de importância a cada dado, redefinir o grau de cada regra como: D(Regra 1) = B1 (x 1 (1) ) * S1 (x 2 (1) ) * CE(y (1) ) * m (1) Nos casos em que se dispõe de regras linguísticas criadas por especialistas, elas serão consideradas assumindo que também possuem um grau, atribuído pelo especialista;
90 Método de Wang & Mendel Passo 4 Criar uma base de regras combinada Para cada grupo de regras com o mesmo antecedente (conflito e redundância) selecione a regra com o maior grau e elimine as demais;
91 Exemplo: 2 variáveis (entrada, saída)
92 Exemplo: 2 variáveis (entrada, saída)
93 Exemplo: 2 variáveis (entrada, saída)
94 Exemplo: 2 variáveis (entrada, saída)
95 Aplicação: Previsão de Séries Temporais Seja x(k), k = 1,2,... N uma série temporal e dada uma janela de n medidas de x(k), x(kn+1), x(k-n+2),..., x(k), determinar x(k+l). JANELA N =5 JANELA = 5 VALOR PREVISTO (L=4) (K-4) (K-3) (K-2) (K-1) (K) (K+4)
96 Aplicação: Previsão de Séries Temporais x1 x2 x3 x4 x5 x6 x7 = CONSEQUENTE ANTECEDENTE O valor a ser previsto depende de n valores passados de x, logo, estes n valores irão compor o antecedente da regra.
97 Aplicação: Previsão de Séries Temporais Passo 1 Divide-se a faixa de valores da série [U-, U+] em m (ímpar) conjuntos fuzzy;
98 Aplicação: Previsão de Séries Temporais Associa-se um rótulo a cada conjunto;
99 Aplicação: Previsão de Séries Temporais Passo 2 Determina-se: Tamanho da janela: define quantos e quais valores passados têm mais influência no valor a ser previsto; Horizonte de previsão: define l em função de quantos valores à frente se deseja a previsão; Para cada regra: Determinar os graus de pertinência dos elementos xj; Atribuir, a cada variável, o conjunto de maior grau; Obter a regra para cada par de entrada-saída;
100 Aplicação: Previsão de Séries Temporais x1 x1
101 Aplicação: Previsão de Séries Temporais
102 Aplicação: Previsão de Séries Temporais SE j(1) é S3 E j(2) é S1 E j(3) é S1 E j(4) é B1 E j(5) é CE E j(6) é B2 ENTÃO j(7) é S1
103 Aplicação: Previsão de Séries Temporais Passo 3 Atribuir um grau a cada regra determinado pelo produto dos graus de pertinência dos componentes da regra (antecedente e consequente); Passo 4 Eliminar redundância e conflito selecionando a regra com maior grau.
104 MÉTODOS DE MINERAÇÃO DE DADOS Considerações Iniciais Métodos Tradicionais Métodos Bioinspirados Tarefas de KDD x Métodos de Mineração de Dados
105 TAREFAS E MÉTODOS ALGUNS EEMPLOS Tarefas de KDD Descoberta de Associações Classificação Regressão Sumarização Métodos de Mineração de Dados Basic, Apriori, DHP, Partition, DIC, ASC-2P Redes Neurais (Ex: MLP com Back-Propagation), C4.5, Rough Sets, Algoritmos Genéticos (Ex: Rule Evolver), CART, K-NN, Classificadores Bayesianos, SVM Redes Neurais (Ex: Redes MLP com Back- Propagation), Lógica Nebulosa C4.5, Algoritmos Genéticos (Ex: Rule Evolver) Clusterização K-Means, K-Modes, K-Prototypes, Fuzzy K- Means, Algoritmos Genéticos, Redes Neurais (Ex: Kohonen) Previsão de Séries Temporais Redes Neurais (Ex: Redes MLP com Back- Propagation), Lógica Nebulosa (Ex: Wang- Mendel)
Aula 7 RNA Redes Auto-Organizáveis de Kohonen
2COP229 Aula 7 RNA Redes Auto-Organizáveis de Kohonen 2COP229 Sumário 1- Introdução 2- Processo de Aprendizado Competitivo 3- Mapas auto-organizáveis de Kohonen (SOM) 4- Projeto Prático 1-Introdução 2COP229
Leia maisINTELIGÊNCIA ARTIFICIAL
INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos
Leia maisKDD E MINERAÇÃO DE DADOS
KDD E MINERAÇÃO DE DADOS Tarefas de KDD Prof. Ronaldo R. Goldschmidt Instituto Militar de Engenharia Seção de Engenharia de Computação (SE/8) ronaldo.rgold@ime.eb.br / ronaldo.rgold@gmail.com Mineração
Leia maisRedes Neurais não Supervisionadas: SOM
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais não Supervisionadas: SOM DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas
Leia maisIntrodução à Mineração de Dados com Aplicações em Ciências Espaciais
Introdução à Mineração de Dados com Aplicações em Ciências Espaciais Escola de Verão do Laboratório Associado de Computação e Matemática Aplicada Rafael Santos Dia 3: 1 /54 Programa Dia 1: Apresentação
Leia mais3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
Leia maisRedes Neurais Artificial. Prática. Inteligência Artificial
Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes
Leia maisRedes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisMapas Auto-Organizáveis de Kohonen SOM
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia maisMapas Auto-Organizáveis de Kohonen SOM
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia mais3 FERRAMENTAS UTILIZADAS: REDES NEURAIS E LÓGICA FUZZY
3 FERRAMENTAS UTILIZADAS: REDES NEURAIS E LÓGICA FUZZY 3.1 REDES NEURAIS As redes neurais representam uma tecnologia que têm raízes em muitas disciplinas: neurociência, matemática, estatística, física,
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes
Leia maisSelf Organizing Maps - Redes de Kohonen
Self Organizing Maps - Redes de Kohonen 1. Redes auto organizáveis Existe uma classe de redes neurais artificias que possuem a capacidade de auto organização, sendo por isto chamadas de redes auto organizáveis.
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
Leia maisINF 1771 Inteligência Artificial
Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 18 Aprendizado Não-Supervisionado Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisConsiderações de Desempenho
Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem
Leia maisREDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM)
REDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM) APRENDIZADO COMPETITIVO Os algoritmos de aprendizado não-supervisionado são geralmente baseados em uma forma de competição entre os neurônios. O método
Leia maisRede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Leia maisIntrodução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana
Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)
Leia maisBack Propagation. Dicas para o BP
Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem
Leia maisRedes Neurais (Inteligência Artificial)
Redes Neurais (Inteligência Artificial) Aula 16 Aprendizado Não-Supervisionado Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest
Leia maisInteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida
Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy Mapas Auto-Organizáveis 1. O Mapa Auto-Organizável (SOM) Sistema auto-organizável inspirado no córtex cerebral. Nos mapas tonotópicos do córtex, p. ex., neurônios vizinhos
Leia maisA evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:
Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis
Leia maisRedes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas
Leia maisHP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.
HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
Leia maisRedes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com
Leia maisMapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995))
Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995)) que realiza simultaneamente agrupamento e visualização SOM usa aprendizagem não supervisionada para mapear dados
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções
Leia maisInteligência nos Negócios (Business Inteligente)
Inteligência nos Negócios (Business Inteligente) Sistemas de Informação Sistemas de Apoio a Decisão Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 6) Fundamentação da disciplina Analise de dados Decisões
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas
Leia maisMinicurso: Inteligência Artificial Aplicada a Sistemas Elétricos
Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons
Leia maisAprendizado de Máquina
Aprendizado de Máquina A necessidade de inserir aprendizado nas máquinas surgiu após a construção dos Sistemas Especialistas (SEs). Os primeiros SEs não possuíam mecanismo de aprendizado e tornavam-se
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer
Leia maisRedes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Árvores de Decisão Poda e extensões Prof. Paulo Martins Engel UFRGS 2 Questões sobre Árvores de Decisão Questões práticas do aprendizado de AD incluem: Determinar até quando se
Leia maisKDD E MINERAÇÃO DE DADOS
KDD E MINERAÇÃO DE DADOS O Processo de KDD: Visão Geral Prof. Ronaldo R. Goldschmidt Instituto Militar de Engenharia Seção de Engenharia de Computação (SE/8) ronaldo.rgold@ime.eb.br / ronaldo.rgold@gmail.com
Leia maisTÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador
Leia maisMini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE
Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede
Leia maisRede Perceptron. Capítulo 3
Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta
Leia maisPor que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas
Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas Wrapper Filtros Muitos algoritmos de AM são projetados de modo a selecionar os
Leia maisClassificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si
Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si Classificação de Dados Os modelos de classificação de dados são preditivos, pois desempenham inferências
Leia maisMapas Auto Organizáveis SOMs Mapas de Kohonen
Mapas Auto Organizáveis SOMs Mapas de Kohonen PSI 2886 Princípios de Neurocomputação Edição de 2008 1 PSI 5886 Prof. Emilio Self Organizing Maps de Kohonen Estes slides foram usados nas aulas #8 e #9 na
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.1. Introdução às Redes Neurais Artificiais (RNAs) 2.1.1. Motivação
Leia maisClustering (k-means, SOM e hierárquicos)
Clustering (k-means, SOM e hierárquicos) André Tavares da Silva andre.silva@udesc.br (Capítulo 10 de Duda e Hart) Clustering Introdução e tipos Roteiro Agrupamentos hierárquicos AGNES, DIANA e Dendogram
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Modelos de classificação por Redes Neurais Artificiais Prof. Paulo Martins Engel Motivação Classificadores baseados em representação simbólica (AD, RD,...) estão limitados a particionar
Leia maisAula 8 - Reconhecimento e Interpretação. Prof. Adilson Gonzaga
Aula 8 - Reconhecimento e Interpretação Prof. Adilson Gonzaga Elementos de Visão Computacional: Visão Computacional Processamento de Baio Nível Processamento de Nível Intermediário Processamento de Alto
Leia maisKDD E MINERAÇÃO DE DADOS
KDD E MINERAÇÃO DE DADOS O Processo de KDD: Visão Geral Prof. Ronaldo R. Goldschmidt ronaldo@de9.ime.eb.br rribeiro@univercidade.br geocities.yahoo.com.br/ronaldo_goldschmidt CARACTERIZAÇÃO ÁREAS DE ORIGEM
Leia maisRedes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco
Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos
Leia maisAprendizado em IA. Prof. Carlos H. C. Ribeiro ITA Divisão de Ciência da Computação
Aprendizado em IA Prof. Carlos H. C. Ribeiro ITA Divisão de Ciência da Computação Tópicos Agentes baseados em aprendizado Aprendizado indutivo Árvores de decisão Método ID3 Aprendizado em redes neurais
Leia maisOtimização com Algoritmos Genéticos no MATLAB. Prof. Rafael Saraiva Campos CEFET-RJ
Otimização com Algoritmos Genéticos no MATLAB Prof. Rafael Saraiva Campos CEFET-RJ Conteúdo do Mini-Curso PARTE 1 Teoria PARTE 2 Prática Conteúdo do Mini-Curso PARTE 1 Teoria 1.1. Conceitos Básicos de
Leia maisTópicos em Mineração de Dados
Tópicos em Mineração de Dados Descoberta de agrupamentos Método k-médias 1. Introdução A descoberta de agrupamentos é uma tarefa descritiva que procura agrupar dados utilizando a similaridade dos valores
Leia maisData Mining. O Processo de KDD. Mauricio Reis
1 Data Mining O Processo de KDD Mauricio Reis prof_uva@mreis.info http://mreis.info/uva-2016-9-datamining 2 ROTEIRO 1. Definição 2. Aplicação KDD problema recursos resultados 3. Área de origem 4. Histórico
Leia mais4 Redes Neurais Artificiais
4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características
Leia maisRedes neurais artificiais
Redes neurais artificiais Conceitos em redes neuronais Redes neuronais artificiais (RNA): uma metáfora cerebral para processamento de informações Computação neuronal Muitos usos de RNA para Reconhecimento
Leia maisHP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.
HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)
Leia maisInteligência Artificial
UFRGS 2 Inteligência Artificial Técnicas de Mineração de Dados Árvores de Decisão Regras de Associação Árvores de Decisão As árvores de decisão (AD) são ferramentas poderosas para classificação cuja maior
Leia maisFundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução
Leia maisSEL-0339 Introdução à Visão Computacional. Aula 7 Reconhecimento de Objetos
Departamento de Engenharia Elétrica - EESC-USP SEL-0339 Introdução à Visão Computacional Aula 7 Reconhecimento de Objetos Prof. Dr. Marcelo Andrade da Costa Vieira Prof. Dr. Adilson Gonzaga mvieira@sc.usp.br
Leia maisSistemas Inteligentes - Redes Neurais -
Sistemas Inteligentes - Redes Neurais - Marley Maria B.R. Vellasco ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada PUC-Rio Introdução CONTEÚDO Motivação, Objetivo, Definição, Características
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Mapas Auto-Organizáveis Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
Leia maisParadigmas de Aprendizagem
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia maisMúltiplos Classificadores
Universidade Federal do Paraná (UFPR) Bacharelado em Informátia Biomédica Múltiplos Classificadores David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Múltiplos classificadores Combinação de classificadores
Leia mais1. Conceitos básicos dos Sistemas Auto-organizáveis. Os sistemas auto-organizáveis estão relacionados com aprendizagem nãosupervisionada.
Redes Neurais Sistemas Auto-Organizáveis. Conceitos básicos dos Sistemas Auto-organizáveis Os sistemas auto-organizáveis estão relacionados com aprendizagem nãosupervisionada. O objetivo de um algoritmo
Leia maisUso da Rede Neural Artificial Self Organizing Maps (SOM) na clusterização de dados meteorológicos
Trabalho apresentado no CMAC-Sul, Curitiba-PR, 2014. Uso da Rede Neural Artificial Self Organizing Maps (SOM) na clusterização de dados meteorológicos Jorge V. R. Bonato, Paulo H. Siqueira Programa de
Leia maisMineração de Dados - II
Tópicos Especiais: INTELIGÊNCIA DE NEGÓCIOS II Mineração de Dados - II Sylvio Barbon Junior barbon@uel.br 10 de julho de 2015 DC-UEL Sylvio Barbon Jr 1 Sumário Etapa II Algoritmos Básicos Weka: Framework
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Introdução Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia Universidade
Leia maisMineração de Dados em Biologia Molecular
Mineração de Dados em Biologia Molecular André C. P. L. F. de Carvalho Monitor: Valéria Carvalho Agrupamento de Dados Tópicos Agrupamento de dados Análise de cluster Dificuldades em agrupamento Algoritmos
Leia maisRedes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)
Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação (Machine Learning) Aula 01 Motivação, áreas de aplicação e fundamentos Max Pereira Nem todo conhecimento tem o mesmo valor. O que torna determinado conhecimento mais importante que
Leia mais3 Técnicas de Previsão de Séries Temporais 3.1. Introdução
3 Técnicas de Previsão de Séries Temporais 3.1. Introdução A previsão de séries temporais é um problema prático de extrema importância, presente em diversas áreas: economia, indústria, serviços, previsão
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron
Leia maisMetodologia Aplicada a Computação.
Metodologia Aplicada a Computação gaudenciothais@gmail.com Pré-processamento de dados Técnicas utilizadas para melhorar a qualidade dos dados; Eliminam ou minimizam os problemas como ruídos, valores incorretos,
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support
Leia maisClustering - c-means e Self Organizing Maps
- c-means e Self Organizing Maps Sarajane M. Peres e Clodoaldo A. M. Lima 13 de abril de 2015 Material baseado em: HAN, J. & KAMBER, M. Data Mining: Concepts and Techniques. 2nd. 2006 FAUSETT, L. Fundamentals
Leia maisModelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:
Back Propagation Fatores importantes para a modelagem da Rede Neural: Seleção de variáveis; veis; Limpeza dos dados; Representação das variáveis veis de entrada e saída; Normalização; Buscando melhor Generalização
Leia maisEstudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial
Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial Renan Bessa 1, Elder dos Santos Teixeira 2, Guilherme Costa Holanda 3, Auzuir Ripardo de Alexandria 4 1 Graduando em
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
Leia maisREDES NEURAIS / INTELIGÊNCIA ARTIFICIAL LISTA DE EXERCÍCIOS 6
REDES NEURAIS / INTELIGÊNCIA ARTIFICIAL LISTA DE EXERCÍCIOS 6 Aluno: 1. Defina o problema de busca (espaço de estados, estado inicial, estado final, ações possíveis, custo) para o seguinte caso: uma pessoa,
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe
Leia maisEm contraste aos métodos de aprendizado que constroem uma descrição explicita genérica da função alvo. Os métodos baseados em instâncias guardam os
Em contraste aos métodos de aprendizado que constroem uma descrição explicita genérica da função alvo. Os métodos baseados em instâncias guardam os exemplos de treinamento A generalização é posposta até
Leia mais( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)
Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação
Leia maisRedes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas
Redes Neurais Dalma M. Falcão falcao@nacad.ufr.br http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs
Leia maisAprendizado de Máquina
Aprendizado de Máquina André C. P. L. F. de Carvalho Posdoutorando: Isvani Frias-Blanco ICMC-USP Agrupamento de dados Tópicos Agrupamento de dados Dificuldades em agrupamento Algoritmos de agrupamento
Leia maisMAPAS AUTO-ORGANIZÁVEIS PARA MODELAGEM CHUVA-VAZÃO. Farias, C. A. S.; Carneiro, T. C. & Lourenço, A. M. G.
MAPAS AUTO-ORGANIZÁVEIS PARA MODELAGEM CHUVA-VAZÃO Farias, C. A. S.; Carneiro, T. C. & Lourenço, A. M. G. Motivação O crescimento populacional e consequente aumento das demandas; A situação se agrava em
Leia maisAprendizado de Máquina Introdução às Redes Neurais Artificiais
Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência
Leia mais3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução
3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução Como já mencionado na seção 1.1, as SVMs geram, da mesma forma que redes neurais (RN), um "modelo caixa preta" de
Leia mais