Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Tamanho: px
Começar a partir da página:

Download "Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental"

Transcrição

1 Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado em Batch ( Batch Learning, por ciclo, etc Aprendizado Incremental ( on-line, pattern-mode, por padrão, etc Aprendizado Batch x Incremental Aprendizado em Batch (por ciclo Somente ajusta os pesos após a apresentação de TODOS os padrões Cada padrão é avaliado com a MESMA configuração de pesos obtém-se os termos derivativos δe p /δw e depois obtém-se a soma total do algoritmo: E E cálculo correto p = do gradiente. w w p Aprendizado Batch x Incremental Aprendizado em Batch (por ciclo Melhor aproximação do verdadeiro gradiente 1

2 Aprendizado Incremental Aprendizado Incremental (por padrão Atualiza os pesos a cada apresentação de um novo padrão os pesos são atualizados usando o gradiente do erro de um único padrão não é mais uma aproximação simples do gradiente mais atualizações ocorrem em um mesmo período de tempo tende a aprender melhor o último padrão apresentado sequência aleatória Aprendizado Incremental Verdadeiro gradiente x Gradiente de um padrão O gradiente de um único padrão pode ser visto como uma estimativa ruidosa do verdadeiro gradiente; Ele pode ter projeções negativas sobre o verdadeiro gradiente; Na média, ele se move downhill ; Quando η << 1, os dois métodos se aproximam. Aprendizado Incremental Aprendizado Incremental Na apresentação randômica dos padrões, a descida não é mais suave; Na média diminui o erro mas pode, eventualmente, aumentá-lo; No final do treinamento η deve ser pequeno para evitar oscilações. Batch X Incremental O modo Batch necessita de menos atualizações de pesos Tende a ser mais rápidor Batch fornece uma medida mais precisa da mudança necessária dos pesos Incremental tem menos chance de ficar preso em um local devido à apresentação aleatória dos padrões natureza estocástica stica de busca no espaço o de pesos Tende a ser mais rápido r se o conjunto de treinamento for grande e ruidoso. A eficiência dos dois métodos depende do problema em questão 2

3 Avaliação do Algoritmo Apesar do grande sucesso do Back Propagation, existem alguns problemas: definição do tamanho da rede; problema de paralisia da Rede Neural; problema de ficar preso em um local. Avaliação do Algoritmo Apesar do grande sucesso do Back Propagation, existem alguns problemas: definição do tamanho da rede; problema de paralisia da Rede Neural; problema de ficar preso em um local. Tamanho da Rede Neural Define o número de camadas escondidas e o número de processadores em cada uma dessas camadas. Compromisso entre Convergência e Generalização. Também conhecido como bias and variance dilemma. Convergência É a capacidade da Rede Neural de aprender todos os padrões do conjunto de treinamento. Se a rede neural for pequena, não será capaz de armazenar todos os padrões necessários. Isto é, a rede não deve ser rígida a ponto de não modelar fielmente os dados. 3

4 f(x Convergência É a capacidade da Rede Neural de aprender todos os padrões do conjunto de treinamento. Rede muito pequena Poucos parâmetros para aprender todos os padrões Generalização Se a rede for muito grande (muitos parâmetros = pesos, não responderá corretamente aos padrões nunca vistos. Isto é, a rede não deve ser excessivamente flexível a ponto de modelar também o ruído f(x generalizações Rede com muitos parâmetros Boa interpolação x 1 x 2 x 3 x 4 x 5 x i pontos do conjunto de treinamento x novo novo ponto para generalização x x 1 x 2 x 3 x novo x 4 x 5 x i pontos do conjunto de treinamento x novo novo ponto para generalização x Generalização Generalização Métricas: Métricas: Usou Kolmogorov Theorem: qualquer função de n variáveis Hecht-Nielsen pode ser representada por 2n+1 funções de uma variável número de PEs na camada escondida N hidden 2N in + 1 Upadhyaya & Eryurek número de pesos W N in. log 2 P O número de parâmetros necessários para codificar P padrões binários é log 2 P número de entradas número de entradas número de padrões 4

5 Métricas: Generalização Métricas: Generalização Baum-Haussler número de padrões N w ε número de sinapses 0 < ε 1/8 desejado no teste (erro trein = ε /2 Baum-Haussler número de padrões N w ε número de sinapses 0 < ε 1/8 desejado no teste (erro trein = ε /2 (generalização x precisão (generalização x precisão N hidden = w N in + N out Métricas: Generalização número de padrões desejado no teste Baum-Haussler N Nhidden N ε test N in + N número output de PEs na camada escondida número de entradas número de PEs na camada de saída GENERALIZAÇÃO Resumo sobre número de Processadores Escondidos Nunca escolha h > 2i; Pode-se armazenar p padrões de i elementos em i log 2 p processadores escondidos nunca utilize mais do que esse limite para uma boa generalização utilize um número consideravelmente menor Assegure-se que se tem pelo menos 1/ε vezes mais padrões do que w Número de padrões > 10 x número de pesos 5

6 GENERALIZAÇÃO Técnicas para Reduzir a complexidade da rede: Weight Decay Análise de Sensibilidade Weight Decay Adiciona um termo denominado weight decay Usado para ajustar a complexidade da rede à dificuldade do problema; Se a estrutura da rede for muito complexa, pode-se remover alguns pesos sem aumentar o erro significativamente; o método fornece aos pesos uma tendência de se dirigir ao valor zero, reduzindo a sua magnitude um pouco a cada iteração. Weight Decay Adiciona um termo denominado weight decay E w( t = η ( t ρw( t w onde 0 ρ<<1 Se δe/δw i =0 w i irá diminuir até zero; caso contrário, os dois termos irão se equilibrar em um certo ponto, evitando que w i 0 Weight Decay Adiciona um termo denominado weight decay E w( t = η ( t ρw( t w onde 0 ρ<<1 Equivale a modificar a definição de E incluindo um termo de penalidade correspondente à magnitude dos pesos da rede. 1 E = 2 k 2 ( di yi + i= λ w 2 6

7 GENERALIZAÇÃO Análise de Sensibilidade da Saída: Retira-se uma variável de entrada ou elementos processadores; Treina-se novamente a rede; Verifica-se a variação do erro de saída. Se a retirada do elemento não causar grande variação a rede é pouco sensível a este elemento, podendo ser retirado sem perda da capacidade de modelar os dados. Avaliação do Algoritmo Apesar do grande sucesso do Back Propagation, existem alguns problemas: definição do tamanho da rede; problema de paralisia da Rede Neural; problema de ficar preso em um local. Problema de Paralisia Com o treinamento, os pesos podem alcançar valores muito grandes (w ji A soma ponderada de cada processador torna-se também muito grande (net j = Σ x i.w ji + θ j F (net j ~ 0 w ji ~ 0 A Rede Neural não consegue aprender F(net j net j Regiões de derivada aproximadamente zero Problema de Paralisia Como evitar paralisia da Rede? Deve-se escolher valores de pesos e bias uniformemente distribuídos dentro de um intervalo pequeno; Os neurônios devem, inicialmente, operar na sua região linear; O número de processadores na(s camada(s escondida(s deve ser pequeno. 7

8 Avaliação do Algoritmo Apesar do grande sucesso do Back Propagation, existem alguns problemas: definição do tamanho da rede; problema de paralisia da Rede Neural; problema de ficar preso em um local. Problema do Local De acordo com o método do gradiente, tem-se: w ji = η.s i.e j Taxa de aprendizado 0.05 η 0.75 A taxa de aprendizado não deve ser nem muito pequena treinamento lento, nem muito grande oscilações Problema do Local Problema do Local (w Partindo da posição inicial 1: η pequeno (w Partindo da posição inicial 1: η pequeno Posição Inicial 1 Posição Inicial 1 Posição 2 Local w L1 Local w w L2 w L1 8

9 Problema do Local Problema do Local (w Partindo da posição inicial 1: η pequeno (w Partindo da posição inicial 1: η pequeno do Gradiente Posição j Qualquer pequena mudança faz o erro aumentar não consegue sair do vale Posição j w Lj w Lj Problema do Local Com η pequeno e dependendo da inicialização dos pesos (feita de forma aleatória não é possível calcular um w que faça a a Rede Neural sair do Local Problema do Local (w Posição Inicial 2 Partindo da posição inicial 2: η grande A Rede Neural não consegue aprender com a precisão especificada ((! w G1 9

10 Problema do Local Problema do Local (w Partindo da posição inicial 2: η grande Posição Inicial 2 Posição 2 (w Partindo da posição inicial 2: η grande Posição 2 Posição 3 w w G1 w G2 w w G2 w G3 Problema do Local Problema do Local (w Partindo da posição inicial 2: η grande (w Partindo da posição inicial 2: η grande Posição 3 w Posição 4 Posição 4 w Posição 5 As mudança não são suficientemente pequenas para levar a uma configuração de erro. w G3 w G4 w G4 w G5 10

11 Problema do Local Quando η é grande, a Rede Neural pode nunca conseguir chegar ao pois os valores de w são grandes. Oscilações ões. Problema do Local (w Partindo da posição inicial 2: η adequado Posição Inicial 2 A Rede Neural também não consegue aprender com a precisão especificada (fica( oscilando em torno do global! w G1 Problema do Local Problema do Local (w Partindo da posição inicial 2: η adequado Posição Inicial 2 Posição 2 (w Partindo da posição inicial 2: η adequado Posição 2 w w G1 w G2 w w G2 Posição 3 w G3 11

12 Problema do Local Problema do Local (w Partindo da posição inicial 2: η adequado Soluções: Utilizar taxa de aprendizado (η adaptativa; Posição 3 Posição k Utilizar o termo de Momento (α. w G3 w Gk Termo de Momento (α( Termo de Momento (α( Uma forma de diminuir a possibilidade de oscilações com valores de η maiores é incluir o Termo de Momento na atualização dos pesos sinápticos w ji (t+1 = η.s i.e j + α. w ji (t w ji (t+1 = η.s i.e j + α. w ji (t Termo proporcional ao valor anterior de atualização do peso 0 < α <

13 Termo de Momento (α( Termo de Momento (α( w 2 w 2 Ponto Inicial - A Ponto Inicial - A A w(t A w(t A -η E(t+1 + α w(t A -η E(t+1 + α w(t A e A estão na mesma direção α acelera o aprendizado w 1 w 1 Termo de Momento (α( Termo de Momento (α( w 2 w 2 Ponto Inicial - B Ponto Inicial - B α w(t B -η E(t+1 B α w(t B -η E(t+1 B B e B estão em direções opostas α evita oscilações w 1 w 1 13

14 Termo de Momento (α( Aprendizado em Batch sem Termo de Momento Termo de Momento (α( Aprendizado em Batch com Termo de Momento Termo de Momento (α( Aprendizado em Batch com Termo de Momento Simulações com a mesma configuração inicial de pesos Conforme α aumenta converge mais rápido (para valores pequenos Conforme α aumenta mais pode oscilar Exemplo - Paridade 4 bits Rede 4/4/1, com treinamento em batch e tanh; Entradas ±1, target ±0.9 e pesos iniciais distribuídos [-0.5, +0.5]; η fixa de a 10.0 (37 valores e α de 0 a 0.99 (14 valores; 100 simulações para cada configuração; treinamento por no máximo 5000 iterações; convergência quando E MSE <0.001 ou se todos padrões erro < 0.2; paralisia se, entre epochs, E MSE < ou se gradiente < ; tempo de convergência Ti i Tavg = N convergiram Probabilidade de convergência N convergiram /100 14

15 Exemplo - Paridade 4 bits Batch X Incremental # epochs probabilidade de convergência Apresentação aleatória dos padrões Oscilações comuns. Batch X Incremental Aprendizado Incremental 4-bits paridade, η=0.3 e α=0 mesmos pesos iniciais única rede que convergiu ICADEMO Formato de Entrada: 15

16 ICADEMO Formato de Saída: Topologia: ICADEMO Vetor de 10 elementos binários dígito 1 dígito 2 dígito 0 0 Aplicação Prática Reconhecimento de Dígitos ICADEMO 16

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado

Leia mais

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:

Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis: Back Propagation Fatores importantes para a modelagem da Rede Neural: Seleção de variáveis; veis; Limpeza dos dados; Representação das variáveis veis de entrada e saída; Normalização; Buscando melhor Generalização

Leia mais

4 Redes Neurais Artificiais

4 Redes Neurais Artificiais 4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características

Leia mais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP) Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

Redes Neurais Artificial

Redes Neurais Artificial Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos

Leia mais

Fundamentos de Inteligência Artificial [5COP099]

Fundamentos de Inteligência Artificial [5COP099] Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução

Leia mais

3 Redes Neurais Introdução

3 Redes Neurais Introdução 3 Redes Neurais 3.. Introdução As redes neurais artificiais, ou comumente conhecidas como Neural Networs, foram motivadas em princípio pela extraordinária capacidade do cérebro humano para executar tarefas

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

Paradigmas de Aprendizagem

Paradigmas de Aprendizagem Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Mapas Auto-Organizáveis Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

3 Modelos Comparativos: Teoria e Metodologia

3 Modelos Comparativos: Teoria e Metodologia 3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Inteligência Artificial

Leia mais

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio

REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio REDES NEURAIS Sistema Nervoso 2 O que é? É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos Engloba o cérebro Sua unidade fundamental é o neurônio Se diferencia

Leia mais

SCC Capítulo 5 Perceptron Multicamadas

SCC Capítulo 5 Perceptron Multicamadas Introdução Back-propagation (BP) MLPs Convolução SCC-5809 - Capítulo 5 Perceptron Multicamadas João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes

Leia mais

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas

Leia mais

Modelo de Hopfield. Modelo de Hopfield. Modelo de Hopfield. Modelo de Hopfield. Redes Neurais Auto-organizáveis Modelo de Hopfield

Modelo de Hopfield. Modelo de Hopfield. Modelo de Hopfield. Modelo de Hopfield. Redes Neurais Auto-organizáveis Modelo de Hopfield (1982) Redes Neurais Auto-organizáveis Profa. Roseli Ap. Francelin Romero O problema de Memória Associativa Armazene um conj. de p padrões x iλ de tal forma que quando uma nova entrada x i é apresentada,

Leia mais

3 Inteligência Computacional

3 Inteligência Computacional 3 Inteligência Computacional Inteligência Computacional (IC) é um ramo da ciência da computação que desenvolve, através de técnicas inspiradas na natureza, algoritmos capazes de imitar algumas habilidades

Leia mais

RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS

RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS 1 RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS Giovanni Crestan Leonardo Enomoto Araki Thiago Antonio Grandi De Tolosa Wânderson de Oliveira Assis Wilson Carlos Siqueira Lima Júnior IMT Instituto Mauá

Leia mais

Redes Neurais Artificiais. Professor: Juan Moises Villanueva

Redes Neurais Artificiais. Professor: Juan Moises Villanueva Redes Neurais Artificiais Mestrando: Lucas Nicolau Email: lucasfnicolau@gmail.com Professor: Juan Moises Villanueva Rede Neural Direta Arquitetura com múltiplas camadas com fluxo de informação apenas em

Leia mais

Forecasting e ti O i Otim Oti ização de ã d Carteiras com Matlab AULA 3

Forecasting e ti O i Otim Oti ização de ã d Carteiras com Matlab AULA 3 Forecasting e Otimização i de Carteiras com Matlab AULA 3 Guia de Estudo para Aula 03 Modelos Discretos Exercícios - Formulação de um modelo - Programação de modelos com for - A simulação de um modelo

Leia mais

Inteligência Artificial

Inteligência Artificial Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial Aprendizagem (Redes Neurais) Prof. a Joseana Macêdo Fechine Régis

Leia mais

Professor José Gomes de Carvalho Jr. Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO

Professor José Gomes de Carvalho Jr. Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO Redes Neurais Artificiais ou simplesmente Redes Neurais (também conhecidas como modelos conexionistas) têm sido, ao longo dos últimos anos, uma área de

Leia mais

4. O algoritmo LMS e variantes

4. O algoritmo LMS e variantes Apontamentos de Processamento Adaptativo de Sinais 4. O algoritmo LMS e variantes Família de algoritmos do gradiente Na prática usam-se estimativas do gradiente, ˆ (n), em vez do verdadeiro gradiente (n),

Leia mais

Regressão. Prof. Fabrício Olivetti de França Universidade Federal do ABC

Regressão. Prof. Fabrício Olivetti de França Universidade Federal do ABC Regressão Prof. Fabrício Olivetti de França Universidade Federal do ABC Aprendendo com Exemplos Uma das formas de aprendizado de máquina é definido como: Dado um conjunto de exemplos X, com cada x sendo

Leia mais

Inteligência Computacional

Inteligência Computacional Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Na Aula Passada... O que é uma

Leia mais

Inteligência Artificial Redes Neurais Artificiais

Inteligência Artificial Redes Neurais Artificiais Pós-Graduação em Engenharia Elétrica Inteligência Artificial Redes Neurais Artificiais João Marques Salomão Rodrigo Varejão Andreão Arquitetura e composição das RNAs Uma rede neural artificial é composta

Leia mais

Método de restrições ativas para minimização em caixas

Método de restrições ativas para minimização em caixas Método de restrições ativas para minimização em caixas Marina Andretta ICMC-USP 20 de outubro de 2014 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 20 de outubro de 2014 1 / 25 Problema com

Leia mais

3 INTERVALOS DE CONFIANÇA

3 INTERVALOS DE CONFIANÇA 3 INTEVALOS DE CONFIANÇA 3.1 Introdução A estimativa de intervalos de confiança é utilizada para se obter medidas de incerteza dos dados analisados. A análise da incerteza de uma previsão, por exemplo,

Leia mais

Redes Neurais Artificiais. Capítulos 1 e 2

Redes Neurais Artificiais. Capítulos 1 e 2 Redes Neurais Artificiais Introdução Capítulos 1 e 2 Redes Neurais Artificiais (RNA) São modelos computacionais inspirados nos mecanismos de aprendizagem do cérebro humano. São modelos computacionais que

Leia mais

Inteligência Artificial

Inteligência Artificial Inteligência Artificial Aula 6 Algoritmos Genéticos M.e Guylerme Velasco Roteiro Introdução Otimização Algoritmos Genéticos Representação Seleção Operadores Geneticos Aplicação Caixeiro Viajante Introdução

Leia mais

Multi-Layer. Perceptron. Sumário. Aplicações de Redes Neurais. Previsão de Séries Temporais. Aplicações de Previsão

Multi-Layer. Perceptron. Sumário. Aplicações de Redes Neurais. Previsão de Séries Temporais. Aplicações de Previsão Aplicações de Redes Neurais Multi-Layer Perceptron Previsão de Séries Temporais Inferência da Qualidade de Produtos de Destilação (Soft Sensors) Classificação de Imagens Determinação da Carga Limite em

Leia mais

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural

Leia mais

5 Experimentos Conjunto de Dados

5 Experimentos Conjunto de Dados Experimentos 48 5 Experimentos Este capítulo apresenta o ambiente experimental utilizado para validar o método de predição do CTR proposto neste trabalho. Na seção 5.1, descrevemos a geração do conjunto

Leia mais

Sistemas Inteligentes

Sistemas Inteligentes Sistemas Inteligentes UNIDADE 5 Redes Neurais Artificiais (Perceptron Multicamadas Conceitos) Prof. Ivan Nunes da Silva. Rede Perceptron Multicamadas Aspectos de arquitetura Redes Perceptron de Múltiplas

Leia mais

3 Aprendizado por reforço

3 Aprendizado por reforço 3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina

Leia mais

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial 1 Redes Neurais - Definição O que é Rede Neural ou Rede Neuronal Artificial (RNA)? É um modelo computacional que objetiva

Leia mais

Raízes de uma função. Laura Goulart. 16 de Março de 2016 UESB. Laura Goulart (UESB) Raízes de uma função 16 de Março de / 1

Raízes de uma função. Laura Goulart. 16 de Março de 2016 UESB. Laura Goulart (UESB) Raízes de uma função 16 de Março de / 1 Raízes de uma função Laura Goulart UESB 16 de Março de 2016 Laura Goulart (UESB) Raízes de uma função 16 de Março de 2016 1 / 1 Aproximação de uma raíz Dado uma precisão ɛ > 0, diremos que um ponto c R

Leia mais

5 Redes Neurais Artificiais

5 Redes Neurais Artificiais 5 Redes Neurais Artificiais 5.1. Introdução A motivação original desta metodologia 1 foi a tentativa de modelar a rede de neurônios humanos visando compreender o funcionamento do cérebro. Portanto, como

Leia mais

Perceptron de Múltiplas Camadas e Backpropagation

Perceptron de Múltiplas Camadas e Backpropagation Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Perceptron de Múltiplas Camadas e Backpropagation Redes Neurais Artificiais Site: http://jeiks.net

Leia mais

Algoritmo Genético. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Algoritmo Genético. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Algoritmo Genético Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução 2. Conceitos Básicos 3. Aplicações 4. Algoritmo 5. Exemplo Introdução São técnicas de busca

Leia mais

4 Redes Neurais Artificiais RNAs

4 Redes Neurais Artificiais RNAs 66 4 Redes Neurais Artificiais RNAs Redes neurais artificial (RNA) são algoritmos que se baseiam no comportamento do cérebro humano. Dessa forma, imita a estrutura massivamente paralela do cérebro, com

Leia mais

Mapas Auto-Organizáveis de Kohonen SOM

Mapas Auto-Organizáveis de Kohonen SOM Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Redes Neurais Convolucionais

Redes Neurais Convolucionais André Gustavo Hochuli Orientador: Prof. Dr. Luiz Eduardo Soares de Oliveira Programa de Pós-Graduação em Informática Departamento de Informática UFPR http://www.inf.ufpr.br/aghochuli/caffe/ Redes Neurais

Leia mais

Redes Neurais não Supervisionadas: SOM

Redes Neurais não Supervisionadas: SOM Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais não Supervisionadas: SOM DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos

Leia mais

3 REDES NEURAIS ARTIFICIAIS

3 REDES NEURAIS ARTIFICIAIS 50 3 REDES NEURAIS ARTIFICIAIS Este capitulo apresenta uma descrição sucinta da teoria básica de Redes Neurais Artificiais e sobre a criação do Comitê de Redes Neurais. Se o leitor estiver familiarizado

Leia mais

Optimização Não-linear

Optimização Não-linear Optimização Não-linear Problemas de optimização não-linear A função a minimizar (maximizar) não é linear Exemplo: Z=43x 2 +log(x 2 )*sin(x x3 ), com x 3 -x 2! < 0 Não existem métodos universais para este

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais rtificiais Histórico, Modelos e prendizado Neural Unisinos - 2001/2 Curso de Informática Disciplina: Redes Neurais Prof. Fernando Osório Centro de Ciências Exatas e Tecnológicas - C6 / E-mail:

Leia mais

Métodos Numéricos Professor Tenani - 3 / 42

Métodos Numéricos Professor Tenani -  3 / 42 Métodos Numéricos Professor Tenani - www.professortenani.com.br 1 / 42 Métodos Numéricos Professor Tenani - www.professortenani.com.br 2 / 42 Introdução Objetivos da Seção Entender o que são problemas

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais x 1 w k1 Bias b k +1 +1 x 1 x 2 x 3 x m +1 y 1 y 2 y o Sinais de entrada x 2 x m Fabricio Breve fabricio@rc.unesp.br w k2 w km Pesos sinápticos Σ Junção aditiva v k f(. ) Saída

Leia mais

Modelos Pioneiros de Aprendizado

Modelos Pioneiros de Aprendizado Modelos Pioneiros de Aprendizado Conteúdo 1. Hebb... 2 2. Perceptron... 5 2.1. Perceptron Simples para Classificaçãod e Padrões... 6 2.2. Exemplo de Aplicação e Motivação Geométrica... 9 2.3. Perceptron

Leia mais

Protótipo de Software para Reconhecimento de Impressões Digitais

Protótipo de Software para Reconhecimento de Impressões Digitais Protótipo de Software para Reconhecimento de Impressões Digitais Aluno: Alex Sandro da Silva Orientador: Paulo de Tarso Mendes Luna Semestre - 99/1 Roteiro da Apresentação INTRODUÇÃO CONCEITOS BÁSICOS

Leia mais

Séries Alternadas. São as séries cujos termos se alternam entre positivos e negativos. Por exemplo, ( 1) k+1 1 k =

Séries Alternadas. São as séries cujos termos se alternam entre positivos e negativos. Por exemplo, ( 1) k+1 1 k = Séries Alternadas São as séries cujos termos se alternam entre positivos e negativos. Por exemplo, ( 1) k+1 1 k = 1 1 2 + 1 3 1 4 + 1 5 Em geral escrevemos, para uma série alternada, ou ( 1) k+1 a k =

Leia mais

Métodos para resolver problemas de otimização restrita

Métodos para resolver problemas de otimização restrita Métodos para resolver problemas de otimização restrita Marina Andretta ICMC-USP 22 de novembro de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 22 de novembro de 2010 1 / 13 Problema

Leia mais

Um Sistema Distribuído para Treinamento de Redes Neurais

Um Sistema Distribuído para Treinamento de Redes Neurais Um Sistema Distribuído para Treinamento de Redes Neurais JOSÉ REINALDO LEMES JÚNIOR UFLA - Universidade Federal de Lavras DCC Departamento de Ciência da Computação Cx Postal 3037 CEP 37200-000 Lavras (MG)

Leia mais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais Classificação de Padrões Abordagem prática com Redes Neurais Artificiais Agenda Parte I - Introdução ao aprendizado de máquina Parte II - Teoria RNA Parte III - Prática RNA Parte IV - Lições aprendidas

Leia mais

Processamento Digital de Imagens. Quantização de Imagens

Processamento Digital de Imagens. Quantização de Imagens Processamento Digital de Imagens Quantização de Imagens Eduardo A. B. da Silva Programa de Engenharia Elétrica - COPPE/UFRJ Laboratório de Sinais, Multimídia e Telecomunicações eduardo@smt.ufrj.br Sergio

Leia mais

Ambiente MATLAB. Redes Neurais. Tela Principal do MATLAB MATLAB 6.5. MATLAB MATrix LABoratory. Programação baseada em Matrizes

Ambiente MATLAB. Redes Neurais. Tela Principal do MATLAB MATLAB 6.5. MATLAB MATrix LABoratory. Programação baseada em Matrizes Redes Neurais MATLAB 6.5 Ambiente MATLAB MATLAB MATrix LABoratory Programação baseada em Matrizes Vetores e escalares também podem ser considerados matrizes, xn, Nx, x Tela Principal do MATLAB Tela Principal

Leia mais

Reconhecimento de Faces Utilizando Redes Neurais MLP

Reconhecimento de Faces Utilizando Redes Neurais MLP Reconhecimento de Faces Utilizando Redes Neurais MLP Autor: Adilmar Coelho Dantas 1, Orientador: Márcia Aparecida Fernandes 1 1 Programa de Pós-Graduação em Ciência da Computação Universidade Federal do

Leia mais

Processamento digital de imagens

Processamento digital de imagens Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 27 de maio de 2016 Reconhecimento de objetos Padrão: arranjo

Leia mais

PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL

PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL Juliana A. ANOCHI 1, Sabrina B. M. SAMBATTI 1, Eduardo F. P. da LUZ 1, Haroldo F. de CAMPOS VELHO 1 Instituto Nacional de Pesquisas Espaciais - INPE

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME 1 Conceitos básicos Naive Bayes K-vizinhos mais

Leia mais

INSTITUTO SUPERIOR TÉCNICO Sistemas de Apoio à Decisão

INSTITUTO SUPERIOR TÉCNICO Sistemas de Apoio à Decisão Número: Nome: -------------------------------------------------------------------------------------------------------------- INSTITUTO SUPERIOR TÉCNICO Sistemas de Apoio à Decisão Exame: 6 January 207

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Introdução Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia Universidade

Leia mais

Inteligência Artificial

Inteligência Artificial Inteligência Artificial Prof. Kléber de Oliveira Andrade pdjkleber@gmail.com Algoritmos Genéticos Conteúdo Introdução O Algoritmo Genético Binário Noções de Otimização O Algoritmo Genético com Parâmetros

Leia mais

REDES NEURAIS ARTIFICIAIS: UMA CONTRIBUIÇÃO AO PROCESSO DE DECISÕES FINANCEIRAS

REDES NEURAIS ARTIFICIAIS: UMA CONTRIBUIÇÃO AO PROCESSO DE DECISÕES FINANCEIRAS REDES NEURAIS ARTIFICIAIS: UMA CONTRIBUIÇÃO AO PROCESSO DE DECISÕES FINANCEIRAS WILSON KENDY TACHIBANA VERIDIANA DE FÁTIMA ORLANDI Resumo: As redes neurais artificiais são modelos baseados no comportamento

Leia mais

MLP (Multi Layer Perceptron)

MLP (Multi Layer Perceptron) MLP (Multi Layer Perceptron) André Tavares da Silva andre.silva@udesc.br Roteiro Rede neural com mais de uma camada Codificação de entradas e saídas Decorar x generalizar Perceptron Multi-Camada (MLP -

Leia mais

Filtros espaciais. Processamento e Recuperação de Imagens Médicas. Prof. Luiz Otavio Murta Jr. Depto. De Computação e Matemática (FFCLRP/USP)

Filtros espaciais. Processamento e Recuperação de Imagens Médicas. Prof. Luiz Otavio Murta Jr. Depto. De Computação e Matemática (FFCLRP/USP) Processamento e Recuperação de Imagens Médicas Prof. Luiz Otavio Murta Jr. Depto. De Computação e Matemática (FFCLRP/USP) 1 Propriedades Operadores de suavização os elementos da máscara são positivos e

Leia mais

Redes Neuronais e Aprendizagem Automática 1

Redes Neuronais e Aprendizagem Automática 1 Redes Neuronais e Aprendizagem Automática 2005/2006 9 a aula Fernando.Silva@ist.utl.pt Instituto Superior Técnico Redes Neuronais e Aprendizagem Automática 1 Sumário Aprendizagem e generalização Redes

Leia mais

f(1) = 6 < 0, f(2) = 1 < 0, f(3) = 16 > 0 x [2, 3].

f(1) = 6 < 0, f(2) = 1 < 0, f(3) = 16 > 0 x [2, 3]. 1 As notas de aula que se seguem são uma compilação dos textos relacionados na bibliografia e não têm a intenção de substituir o livro-texto, nem qualquer outra bibliografia. Métodos Numéricos Para Solução

Leia mais

TREINAMENTO DE REDES PERCEPTRON DE MÚLTIPLAS CAMADAS UTILIZANDO O CONCEITO DE SPARSE DISTRIBUTED MEMORY

TREINAMENTO DE REDES PERCEPTRON DE MÚLTIPLAS CAMADAS UTILIZANDO O CONCEITO DE SPARSE DISTRIBUTED MEMORY TREINAMENTO DE REDES PERCEPTRON DE MÚLTIPLAS CAMADAS UTILIZANDO O CONCEITO DE SPARSE DISTRIBUTED MEMORY Leonardo Jose Silvestre, Cristiano Leite de Castro, Antônio de Padua Braga Universidade Federal de

Leia mais

Algoritmos Evolutivos Canônicos

Algoritmos Evolutivos Canônicos Algoritmos Evolutivos Canônicos Como representar os indivíduos Vetor de comprimento fixo com L características escolhidas previamente. Ex.: Definição

Leia mais

Imagem Vetorial x Imagem Matricial. Conversão Matricial de Primitivas Gráficas. Sistema de Coordenadas do Dispositivo. Problema

Imagem Vetorial x Imagem Matricial. Conversão Matricial de Primitivas Gráficas. Sistema de Coordenadas do Dispositivo. Problema Conversão Matricial de Primitivas Gráficas Imagem Vetorial x Imagem Matricial Maria Cristina F. de Oliveira março 2009 2 Problema Traçar primitivas geométricas (segmentos de reta, polígonos, circunferências,

Leia mais

ESTIMAÇÃO DA VELOCIDADE DE DESLOCAMENTO DE UMA ESTEIRA TRANSPORTADORA UTILIZANDO REDES NEURAIS ARTIFICIAIS

ESTIMAÇÃO DA VELOCIDADE DE DESLOCAMENTO DE UMA ESTEIRA TRANSPORTADORA UTILIZANDO REDES NEURAIS ARTIFICIAIS ESTIMAÇÃO DA VELOCIDADE DE DESLOCAMENTO DE UMA ESTEIRA TRANSPORTADORA UTILIZANDO REDES NEURAIS ARTIFICIAIS Samuel Vieira DIAS (1); Geraldo Luis Bezerra RAMALHO (2); (1) Instituto Federal de Educação, Ciência

Leia mais

MÉTODOS QUANTITATIVOS PARA CIÊNCIA DA COMPUTAÇÃO EXPERIMENTAL

MÉTODOS QUANTITATIVOS PARA CIÊNCIA DA COMPUTAÇÃO EXPERIMENTAL MÉTODOS QUANTITATIVOS PARA CIÊNCIA DA COMPUTAÇÃO EXPERIMENTAL Pedro Henrique Bragioni Las Casas Pedro.lascasas@dcc.ufmg.br Apresentação baseada nos slides originais de Jussara Almeida e Virgílio Almeida

Leia mais

, logo, para se obter uma boa precisão seria necessário aumentar, e muito, o número de

, logo, para se obter uma boa precisão seria necessário aumentar, e muito, o número de 2. Simulação de Monte Carlo A Simulação de Monte Carlo (SMC) é um método numérico que utiliza um gerador de números aleatórios para simular possíveis valores da variável de interesse e assim obter a estimativa

Leia mais

COS767 - Modelagem e Análise Aula 3 - Simulação

COS767 - Modelagem e Análise Aula 3 - Simulação COS767 - Modelagem e Análise Aula 3 - Simulação Validando resultados da simulação Média e variância amostral Teorema do Limite Central Intervalo de confiança Organizando as execuções da simulação Verificando

Leia mais

Inteligência de Enxame

Inteligência de Enxame Inteligência de Enxame! Inteligência de enxames é a denominação aplicada a tentativa de desenvolvimento de algoritmos para a solução distribuída de problemas inspirando-se no comportamento coletivo de

Leia mais

Autovalores e Autovetores

Autovalores e Autovetores Algoritmos Numéricos II / Computação Científica Autovalores e Autovetores Lucia Catabriga 1 1 DI/UFES - Brazil Junho 2016 Introdução Ideia Básica Se multiplicarmos a matriz por um autovetor encontramos

Leia mais

Arquitetura e Organização de Computadores

Arquitetura e Organização de Computadores UNIVERSIDADE FEDERAL RURAL DO SEMI-ÁRIDO DEPARTAMENTO DE CIÊNCIAS EXATAS E NATURAIS CURSO DE CIÊNCIA DA COMPUTAÇÃO Arquitetura e Organização de Computadores Aritmética Computacional Prof. Helcio Wagner

Leia mais

PROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG /2012

PROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG /2012 PROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG - 0/0 Instruções:. Cada questão respondida corretamente vale (um) ponto.. Cada questão respondida incorretamente vale - (menos um) ponto. 3.

Leia mais

UNIVERSIDADE ESTADUAL PAULISTA UNESP FACULDADE DE ENGENHARIA DE ILHA SOLTEIRA PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

UNIVERSIDADE ESTADUAL PAULISTA UNESP FACULDADE DE ENGENHARIA DE ILHA SOLTEIRA PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE ESTADUAL PAULISTA UNESP FACULDADE DE ENGENHARIA DE ILHA SOLTEIRA PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA Introdução e Principais Conceitos Carlos Roberto Minussi Anna Diva Plasencia

Leia mais