Modelos Pioneiros de Aprendizado

Tamanho: px
Começar a partir da página:

Download "Modelos Pioneiros de Aprendizado"

Transcrição

1 Modelos Pioneiros de Aprendizado Conteúdo 1. Hebb Perceptron Perceptron Simples para Classificaçãod e Padrões Exemplo de Aplicação e Motivação Geométrica Perceptron com Múltiplos Neurônios Exemplo de Aplicação: Reconhecimento de Caracteres Aspectos Práticos do Treinamento do Perceptron Adaline A Regra Delta Superfícies de Erro Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 1 1. Hebb Após a publicação do trabalho de McCulloch & Pitts em 1943, Norbert Wiener publicou um livro famoso, em 1948, denominado Cybernetics, seguido pela publicação do livro The Organization of Behavior por Hebb. No livro de Hebb, foi proposta pela primeira vez uma regra de aprendizagem através da modulação (ou modificação) de pesos sinápticos. Basicamente, Hebb propôs que a efetividade de uma sinapse aumenta devido a ativação repetida de um neurônio (por outro neurônio). Com suas próprias palavras: Quando o axônio de uma célula A está próximo o suficiente de excitar uma célula B ou persistentemente contribui para sua ativação, algum processo de crescimento ou variação metabólica ocorre em uma ou ambas as células, tal que a efetividade da célula A em ativar a célula B é aumentada. Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 2

2 Este postulado requer uma mudança no peso sináptico entre células quando as células pré- e pós-sinápticas estão ativas simultaneamente. Hebb sugeriu que esta mudança era a base para a aprendizagem associativa, resultando em uma modificação duradoura no padrão de atividade de uma rede neural. Esta regra é generalizada dentro da literatura de RNAs, resultando na denominada regra de Hebb generalizada. Esta regra propõe que mudanças nos pesos das conexões são dadas pelo produto da atividade pré-sináptica e pós-sináptica: w ij (t) = α y i (t) x j (t), onde w ij (t) é a mudança a ser aplicada no neurônio i, α é um fator multiplicativo denominado de taxa de aprendizagem, y i é a saída do neurônio i, x j é a entrada do neurônio j, e t é o índice de tempo. Note que esta equação deixa clara a natureza correlacional ou associativa da regra de atualização de Hebb. Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 3 o Sabe-se que boa parte da memória humana é associativa. Neste tipo de memória, um evento está ligado a outro evento, de forma que a ocorrência do primeiro evento resulta na ocorrência do evento ligado. o Em sua versão mais simples, um estímulo está ligado a uma resposta. A diferença principal entre a proposta original e a regra generalizada é o fato de que no caso generalizado tanto os estímulos excitatórios quanto os inibitórios influenciam na atividade do neurônio. A equação acima pode ser expressa de forma genérica como sendo: w ij (t) = g(y i (t), x j (t)), onde g(, ) é uma função de ambos os sinais, pré- e pós-sináptico. Portanto, o peso de um neurônio i é atualizado de acordo com a seguinte regra: w ij (t+1) = w ij (t) + w ij (t). Resolver os Exercícios Computacionais 2 e 3 do Relatório Técnico. Entregar o relatório com os resultados para um dos professores. Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 4

3 2. Perceptron Rosenblatt introduziu o perceptron como a arquitetura mais simples de rede neural capaz de classificar padrões linearmente separáveis. O algoritmo de treinamento do perceptron foi o primeiro modelo de treinamento supervisionado, embora alguns perceptrons fossem auto-organizados. Basicamente, o perceptron consiste em uma única camada de neurônios com pesos sinápticos e bias ajustáveis. Se os padrões de entrada forem linearmente separáveis, o algoritmo de treinamento do perceptron possui convergência garantida, ou seja, é capaz de encontrar um conjunto de pesos que classifica corretamente os dados. Os pesos dos neurônios que compõem o perceptron serão tais que as superfícies de decisão produzidas pela rede neural estarão apropriadamente posicionadas no espaço. Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 5 Os neurônios do perceptron são similares ao neurônio de McCulloch & Pitts (função de ativação tipo degrau), mas possuem pesos associados, incluindo o bias Perceptron Simples para Classificação de Padrões O algoritmo do perceptron funciona como a seguir. o Para cada padrão de treinamento (dado de entrada) x i, a saída da rede y i é calculada. o Em seguida, é determinado o erro e i entre a saída desejada para este padrão d i e a saída da rede y i, e i = d i y i. o O vetor de pesos conectando as entradas (neurônios pré-sinápticos) a cada saída (neurônios pós-sinápticos) e o bias do neurônio são atualizados de acordo com as seguintes regras: w i (t+1) = w i (t) + α e i x i, b(t+1) = b(t) + α e i, onde w R 1 m, x R 1 m, e b R 1 1. Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 6

4 Considere agora o caso mais simples do perceptron com um único neurônio. Entradas +1 x 1 x 2 x m w 0 = b w 1 w 2 w m Σ Junção somadora u Função de ativação f(u) y Saída O objetivo desta rede, mais especificamente deste neurônio, é classificar alguns padrões de entrada como pertencentes ou não pertencentes a uma dada classe. Considere o conjunto de dados de entrada como sendo formado por N amostras {x 1,d 1 }, {x 2,d 2 },, {x N,d N }, onde x j é o vetor j de entradas, e d j sua saída desejada (classe) correspondente. Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 7 Seja X R m N, a matriz de dados de entradas com N padrões de dimensão m cada (colunas de X), e d R 1 N o vetor de saídas desejadas. O algoritmo abaixo pode ser utilizado para treinar o perceptron de um único neurônio: procedure [w] = perceptron(max_it,e,α,x,d) initialize w // por simplicidade, inicialize com 0 initialize b //por simplicidade, inicialize com 0 t 1 while t < max_it & E > 0 do, for i from 1 to N do, //para cada padrão de entrada y i f(wx i + b) //determine a saída para x i e i d i y i //determine o erro para x i w w + α e i x i //atualize o vetor de pesos b b + α e i //atualize o bias end for E sum(e i ) t t + 1 end while end procedure Algo 1: Simple perceptron learning algorithm. (The function f( ) is the threshold function) Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 8

5 2.2. Exemplo de Aplicação e Motivação Geométrica Considere o problema de utilizar o perceptron com um único neurônio para representar a função lógica AND. Entradas Saídas x 1 x 2 x 1 AND x (0,1) (1,1) (0,0) (1,0) X = = d [ ] A saída y i do neurônio para o vetor de dados x i pode ser representada na forma: y i = f(wx i + b) Para quaisquer valores de w e b, a função f(u) separa o espaço de entradas em duas regiões, sendo que a curva de separação (superfície de decisão) é uma linha reta. Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 9 A equação desta reta é dada por: w 1 x 1 + w 2 x 2 + b = 0 Se a função de ativação do tipo sinal (degrau) possui θ = 0, então w 1 x 1 + w 2 x 2 + b 0 resultará em uma saída positiva da rede. Inicializando todos os pesos e o limiar em zero w = [0 0] e b = 0, e definindo α = 1, o algoritmo de treinamento do perceptron fornece o seguinte: w 1 = 2; w 2 = 1; b = 3, portanto 2x 1 + 1x 2 3 = 0. Obs.: note que os pesos do perceptron também poderiam ter sido inicializados com valores aleatórios pequenos. o Neste caso, a superfície de decisão obtida seria diferente. o Considere para efeitos ilustrativos: w 1 = 0.015; w 2 = 0.768; b = o A figura a seguir mostra as duas superfícies de decisão e os pesos e bias determinados pelo algoritmo de treinamento do perceptron. Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 10

6 w 1 = 2; w 2 = 1; b = 3 (0,1) (1,1) (0,0) (1,0) w 1 = 2.015; w 2 = 0.768; b = Resolver os Exercícios Computacionais 4 e 5 do Relatório Técnico. Entregar o relatório com os resultados para um dos professores Perceptron com Múltiplos Neurônios Note que a regra de aprendizagem do perceptron é do tipo supervisionada, empregando a aprendizagem por correção de erro. Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 11 Esta regra pode ser facilmente estendida para atualizar os pesos de uma rede de neurônios em uma única camada. Neste caso, para cada vetor de entrada x i haverá um vetor de saídas da rede: y i = f(wx i + b); W R o m, x i R m 1, i = 1,,N, y i R o 1, e b R o 1, D R o N. Existe agora um vetor de erros para cada padrão de entrada: e i = d i y i. procedure [W] = perceptron(max_it,α,x,d) initialize W //for simplicity set it to zero initialize b //for simplicity set it to zero t 1 while t < max_it do, for i from 1 to N do, //para cada padrão de entrada y i f(wx i + b) //determine a saída da rede para x i e i d i y i //determine a saída da rede para x i T W W + α e i x i //atualize a matriz de pesos b b + α e i //atualize o vetor de bias end for t t + 1 end while end procedure Algo 2: Learning algorithm for the perceptron with multiple outputs. Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 12

7 2.4. Exemplo de Aplicação: Reconhecimento de Caracteres Considere o problema de aplicar o perceptron com múltiplas saídas ao problema de classificação (reconhecimento) dos seguintes caracteres binários: Cada um destes oito padrões de entrada possui uma resolução de pixels e as classes a que eles pertencem (0,1,2,3,4,6,,9) estão pré-definidas. Vamos projetar um perceptron com oito neurônios de saída, onde cada neurônio irá corresponder a uma classe. Temos então X R e D R 8 8 (matriz diagonal). O algoritmo de treinamento do perceptron será responsável então por definir uma hipersuperfície de decisão em um espaço de dimensão 120 capaz de classificar os dados corretamente. Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 13 Resolver o Exercício Computacional 6 do Relatório Técnico. Entregar o relatório com os resultados para um dos professores Aspectos Práticos do Treinamento do Perceptron Condição inicial: verificou-se que diferentes conjuntos iniciais de pesos para o perceptron podem levar a diferentes superfícies de decisão. o Na verdade, o problema de ajuste supervisionado de pesos pode ser visto como um processo de busca por um conjunto de pesos que otimizam uma determinada superfície de erro. o Sendo assim, uma escolha inadequada da condição inicial da rede pode levar o algoritmo a uma convergência para ótimos locais desta superfície de erro. Critério de convergência: no caso do perceptron, é possível garantir que, dado um conjunto de padrões linearmente separáveis, o algoritmo é capaz de encontrar uma superfície de decisão capaz de classificar corretamente os dados. Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 14

8 o Sendo assim, é possível utilizar como critério de convergência para o perceptron simples (classificação binária) a determinação de erro igual a zero para todos os padrões de entrada. o Outro critério que pode ser utilizado é a adaptação por uma quantidade finita de iterações, denominadas de épocas de treinamento. Parâmetros de treinamento: o algoritmo de treinamento do perceptron possui basicamente o parâmetro de treinamento α que deve ser definido pelo usuário. Treinamento versus aplicação da rede: é importante diferenciar entre o processo de treinamento e aplicação da rede. o O treinamento da rede corresponde ao processo de ajuste de pesos. o Após treinada, a rede poderá ser aplicada ao mesmo problema, de forma a verificar a qualidade do aprendizado, ou a outro problema, de forma a verificar sua capacidade de generalização. Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 15 procedure [y] = perceptron(w,b,z) for i from 1 to N do, //para cada padrão de entrada x i y i f(wx i + b) //determine as saídas da rede end for end procedure Algo 3: Algorithm used to run the trained single-layer perceptron network. 3. Adaline Praticamente ao mesmo tempo em que Rosenblatt propôs o perceptron, Widrow & Hoff desenvolveram o algoritmo dos quadrados mínimos (least square) ou regra delta. Eles introduziram a rede Adaline (Adaptive Linear Element), muito similar ao perceptron, porém com função de ativação linear ao invés de função sinal. O objetivo do algoritmo de treinamento é minimizar o erro quadrático médio (MSE ou EQM) entre a saída da rede e a saída desejada. Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 16

9 3.1. A Regra Delta Seja {x 1,d 1 },{x 2,d 2 },,{x N,d N }, um conjunto de pares de entrada-saída, onde x j é o vetor de entradas j, e d j seu correspondente vetor de saídas (desejadas). A regra delta ajusta os pesos e o limiar da rede neural de forma a minimizar o erro (diferença) entre a saída da rede e a saída desejada para todos os padrões de treinamento. A soma dos erros quadráticos (SEQ) para um determinado padrão é dada por: I = o i= 1 e 2 i = o i= 1 ( d i y ) i 2 O gradiente de I, também denominado de índice de desempenho ou função custo, é o vetor que consiste das derivadas parciais de I em relação a cada um dos pesos. Este vetor fornece a direção de crescimento mais rápido do erro (I). o Portanto, a direção oposta ao gradiente de I é a direção de maior decrescimento da função custo. Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 17 Sendo assim, o erro pode ser reduzido ajustando-se os pesos da rede da seguinte forma: w IJ I = wij w IJ onde w IJ é um peso arbitrário conectando o neurônio pré-sináptico J ao neurônio pós-sináptico I, e α é a taxa de aprendizagem. Torna-se necessário portanto, determinar de forma explícita o gradiente do erro em relação ao peso arbitrário. Como o peso w IJ influencia apenas a unidade I, o gradiente do erro é dado por: I w IJ = w IJ o i= 1 2 ( di yi ) = ( di yi wij Mas, y I = f(w I.x) = f(σ j w Ij.x j ) = Σ j w Ij.x j I = w IJ y I 2( d I yi ) = 2( d I wij I ) y ) x J 2 (ativação linear) Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 18

10 Portanto a regra delta para atualizar o peso do neurônio w IJ é dada por: w IJ = w IJ + α (d I y I ) x J. b I = b I + α (d I y I ). (Note que o parâmetro α incorpora a constante 2 do gradiente.) Em notação matricial tem-se: W = W + α e i x i T b = b + α e i onde W R o m, x i R m 1, i = 1,,N, e i R o 1, e b R o 1. A beleza deste algoritmo é que, a cada iteração, ele calcula uma aproximação do vetor gradiente do erro multiplicando o erro pelo vetor de entradas, e esta aproximação pode ser utilizada em um algoritmo do tipo gradiente descendente com taxa de aprendizagem fixa. Resolver os Exercícios Computacionais 7 e 8 do Relatório Técnico. Entregar o relatório com os resultados para um dos professores. Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline Superfícies de Erro Seja uma rede neural com n pesos a serem ajustados. Este conjunto de pesos pode ser visto como um ponto em um espaço n-dimensional, denominado de espaço de pesos (weight space). Se a rede neural é utilizada para classificar um conjunto de padrões, para cada um destes padrões a rede irá gerar um determinado sinal de erro. Isso significa que cada conjunto de pesos e bias possui um valor associado de erro. Os valores de erro para todos os conjuntos possíveis de pesos e bias definem uma superfície no espaço de pesos denominada de superfície de erro. A questão que resulta então é qual o papel do algoritmo de treinamento. A forma que boa parte dos algoritmos supervisionados operam é através da minimização de uma função de custo baseada no erro entre as saídas da rede e as saídas desejadas. Três conclusões importantes devem ser salientadas: Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 20

11 o A visualização do treinamento de RNAs via minimização do erro permite a interpretação do problema como um problema de otimização, que é geralmente não-linear e irrestrito. Isso permite a aplicação de diversas técnicas de otimização não-linear irrestrita para o treinamento de RNAs feedforward. o A superfície de erro possui, potencialmente, uma grande quantidade de mínimos locais, sugerindo que os algoritmos de treinamento estão sujeitos a ficarem presos em mínimos locais da superfície de erro. o Outros métodos de busca como algoritmos evolutivos também podem ser empregados no treinamento de RNAs. Local minimum Global minimum Tópico 5: Modelos Pioneiros de Aprendizado em RNAs: Hebb, Perceptron e Adaline 21

RNAs, Classificação de Padrões e Motivação Geométrica. Conteúdo

RNAs, Classificação de Padrões e Motivação Geométrica. Conteúdo RNAs, Classificação de Padrões e Motiação Geométrica Conteúdo. O problema do OU-eclusio.... Um problema mais geral de mapeamento não-linear... 0 3. Mapeamentos não-lineares genéricos... 4 4. Redes neurais

Leia mais

Figura 5.1.Modelo não linear de um neurônio j da camada k+1. Fonte: HAYKIN, 2001

Figura 5.1.Modelo não linear de um neurônio j da camada k+1. Fonte: HAYKIN, 2001 47 5 Redes Neurais O trabalho em redes neurais artificiais, usualmente denominadas redes neurais ou RNA, tem sido motivado desde o começo pelo reconhecimento de que o cérebro humano processa informações

Leia mais

Redes Neurais. A IA clássica segue o paradigma da computação simbólica

Redes Neurais. A IA clássica segue o paradigma da computação simbólica Abordagens não simbólicas A IA clássica segue o paradigma da computação simbólica Redes Neurais As redes neurais deram origem a chamada IA conexionista, pertencendo também a grande área da Inteligência

Leia mais

Do neurônio biológico ao neurônio das redes neurais artificiais

Do neurônio biológico ao neurônio das redes neurais artificiais Do neurônio biológico ao neurônio das redes neurais artificiais O objetivo desta aula é procurar justificar o modelo de neurônio usado pelas redes neurais artificiais em termos das propriedades essenciais

Leia mais

Para entender como funciona um perceptron, vamos continuar considerando um perceptron com somente duas entradas, x 1 e x 2, e uma saída s.

Para entender como funciona um perceptron, vamos continuar considerando um perceptron com somente duas entradas, x 1 e x 2, e uma saída s. Análise do Perceptron Para entender como funciona um perceptron, vamos continuar considerando um perceptron com somente duas entradas, x 1 e x 2, e uma saída s. O neurônio de saída tem limiar b, de maneira

Leia mais

UMA ABORDAGEM DE PODA PARA MÁQUINAS DE APRENDIZADO EXTREMO VIA ALGORITMOS GENÉTICOS

UMA ABORDAGEM DE PODA PARA MÁQUINAS DE APRENDIZADO EXTREMO VIA ALGORITMOS GENÉTICOS UMA ABORDAGEM DE PODA PARA MÁQUINAS DE APRENDIZADO EXTREMO VIA ALGORITMOS GENÉTICOS Alisson S. C. Alencar, Ajalmar R. da Rocha Neto Departamento de Computação, Instituto Federal do Ceará (IFCE). Programa

Leia mais

Rede MLP: Perceptron de Múltiplas Camadas

Rede MLP: Perceptron de Múltiplas Camadas Rede MLP: Perceptron de Múltiplas Camadas Conteúdo. Neurônio artificial.... Eemplos mais usuais de funções de ativação... 3 3. Produto interno e projeção... 5 4. Função de epansão ortogonal... 7 5. Redes

Leia mais

Rede de Elementos Caóticos Acoplados Globalmente

Rede de Elementos Caóticos Acoplados Globalmente Rede de Elementos Caóticos Acoplados Globalmente Rosagela Follmann 1, Elbert E. N. Macau 2 1 Programa de Pós-graduação em Computação Aplicada - CAP Instituto Nacional de Pesquisas Espaciais - INPE 2 Laboratório

Leia mais

Redes Neurais. Profa. Flavia Cristina Bernardini

Redes Neurais. Profa. Flavia Cristina Bernardini Redes Neurais Profa. Flavia Cristina Bernardini Introdução Cérebro & Computador Modelos Cognitivos Diferentes Cérebro Computador Seqüência de Comandos Reconhecimento de Padrão Lento Rápido Rápido Lento

Leia mais

Segmentação de Imagens

Segmentação de Imagens Segmentação de Imagens (Processamento Digital de Imagens) 1 / 36 Fundamentos A segmentação subdivide uma imagem em regiões ou objetos que a compõem; nível de detalhe depende do problema segmentação para

Leia mais

Complemento II Noções Introdutória em Redes Neurais

Complemento II Noções Introdutória em Redes Neurais Complemento II Noções Introdutória em Redes Neurais Esse documento é parte integrante do material fornecido pela WEB para a 2ª edição do livro Data Mining: Conceitos, técnicas, algoritmos, orientações

Leia mais

3. REDES DE CAMADA ÚNICA

3. REDES DE CAMADA ÚNICA 3. REDES DE CAMADA ÚNICA Perceptron Forma mais simples de RN Utilizado para classificação de padrões (linearmente separáveis) Consiste em um único neurônio, com pesos sinápticos ajustáveis e bias 3.1 Funções

Leia mais

Matlab - Neural Networw Toolbox. Ana Lívia Soares Silva de Almeida

Matlab - Neural Networw Toolbox. Ana Lívia Soares Silva de Almeida 27 de maio de 2014 O que é a Neural Networw Toolbox? A Neural Network Toolbox fornece funções e aplicativos para a modelagem de sistemas não-lineares complexos que não são facilmente modelados com uma

Leia mais

IC Inteligência Computacional Redes Neurais. Redes Neurais

IC Inteligência Computacional Redes Neurais. Redes Neurais Universidade Federal do Rio de Janeiro PÓS-GRADUAÇÃO / 2008-2 IC Inteligência Computacional Redes Neurais www.labic.nce.ufrj.br Antonio G. Thomé thome@nce.ufrj.br Redes Neurais São modelos computacionais

Leia mais

A otimização é o processo de

A otimização é o processo de A otimização é o processo de encontrar a melhor solução (ou solução ótima) para um problema. Eiste um conjunto particular de problemas nos quais é decisivo a aplicação de um procedimento de otimização.

Leia mais

MLP (Multi Layer Perceptron)

MLP (Multi Layer Perceptron) MLP (Multi Layer Perceptron) André Tavares da Silva andre.silva@udesc.br Roteiro Rede neural com mais de uma camada Codificação de entradas e saídas Decorar x generalizar Perceptron Multi-Camada (MLP -

Leia mais

Aula 2 RNA Arquiteturas e Treinamento

Aula 2 RNA Arquiteturas e Treinamento 2COP229 Aula 2 RNA Arquiteturas e Treinamento 2COP229 Sumário 1- Arquiteturas de Redes Neurais Artificiais; 2- Processos de Treinamento; 2COP229 1- Arquiteturas de Redes Neurais Artificiais -Arquitetura:

Leia mais

Capítulo 7. Limitações

Capítulo 7. Limitações Capítulo 7 Limitações Os principais problemas das arquiteturas MLP que serão abordados são a sensibilidade a mínimos locais, o não conhecimento a priori da arquitetura ótima de rede e a implementação destes

Leia mais

Estudaremos métodos numéricos para resolução de sistemas lineares com n equações e n incógnitas. Estes podem ser:

Estudaremos métodos numéricos para resolução de sistemas lineares com n equações e n incógnitas. Estes podem ser: 1 UNIVERSIDADE FEDERAL DE VIÇOSA Departamento de Matemática - CCE Cálculo Numérico - MAT 271 Prof.: Valéria Mattos da Rosa As notas de aula que se seguem são uma compilação dos textos relacionados na bibliografia

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Inteligência Artificial Prof. Cedric Luiz de Carvalho Instituto de Informática UFG 2006 2/164 Tópicos Introdução Redes Neurais Humanas O que são Redes Neurais Artificiais Características

Leia mais

R é o conjunto dos reais; f : A B, significa que f é definida no conjunto A (domínio - domain) e assume valores em B (contradomínio range).

R é o conjunto dos reais; f : A B, significa que f é definida no conjunto A (domínio - domain) e assume valores em B (contradomínio range). f : A B, significa que f é definida no conjunto A (domínio - domain) e assume valores em B (contradomínio range). R é o conjunto dos reais; R n é o conjunto dos vetores n-dimensionais reais; Os vetores

Leia mais

ESTIMAÇÃO DA DEMANDA DE INSTALAÇÕES ELÉTRICAS DE EDIFICAÇÕES COM MÚLTIPLAS UNIDADES DE CONSUMO

ESTIMAÇÃO DA DEMANDA DE INSTALAÇÕES ELÉTRICAS DE EDIFICAÇÕES COM MÚLTIPLAS UNIDADES DE CONSUMO UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE CENTRO DE TECNOLOGIA PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA E DE COMPUTAÇÃO THALES AUGUSTO DE OLIVEIRA RAMOS ESTIMAÇÃO DA DEMANDA DE INSTALAÇÕES ELÉTRICAS

Leia mais

Redes Neurais Artificiais na Engenharia Nuclear 2 Aula-1 Ano: 2005

Redes Neurais Artificiais na Engenharia Nuclear 2 Aula-1 Ano: 2005 Redes Neurais Artificiais na Engenharia Nuclear 1 - Apresentação do Professor: dados, lista de E-mail s, etc. - Apresentação da Turma: Estatística sobre origem dos alunos para adaptação do curso - Apresentação

Leia mais

Inteligência Artificial. Redes Neurais Artificiais

Inteligência Artificial. Redes Neurais Artificiais Curso de Especialização em Sistemas Inteligentes Aplicados à Automação Inteligência Artificial Redes Neurais Artificiais Aulas Práticas no Matlab João Marques Salomão Rodrigo Varejão Andreão Matlab Objetivos:

Leia mais

Reconhecimento de Padrões Utilizando Filtros Casados

Reconhecimento de Padrões Utilizando Filtros Casados Detecção e estimação de sinais Reconhecimento de Padrões Utilizando Filtros Casados Aline da Rocha Gesualdi Mello, José Manuel de Seixas, Márcio Portes de Albuquerque, Eugênio Suares Caner, Marcelo Portes

Leia mais

Curso de Redes Neurais utilizando o MATLAB

Curso de Redes Neurais utilizando o MATLAB Curso de Redes Neurais utilizando o MATLAB Victoria Yukie Matsunaga Belém-Pará-Brasil 2012 Esta apostila tem como principal objetivo fornecer um material de auxílio ao Curso de Redes Neurais utilizando

Leia mais

FACULDADE DO LITORAL SUL PAULISTA - FALS JEAN MAMEDE DE OLIVEIRA

FACULDADE DO LITORAL SUL PAULISTA - FALS JEAN MAMEDE DE OLIVEIRA FACULDADE DO LITORAL SUL PAULISTA - FALS JEAN MAMEDE DE OLIVEIRA INTELIGÊNCIA ARTIFICIAL REDES NEURAIS ARTIFÍCIAIS PRAIA GRANDE 2010 JEAN MAMEDE DE OLIVEIRA INTELIGÊNCIA ARTIFICIAL REDES NEURAIS ARTIFÍCIAIS

Leia mais

36 a Olimpíada Brasileira de Matemática Nível Universitário Primeira Fase

36 a Olimpíada Brasileira de Matemática Nível Universitário Primeira Fase 36 a Olimpíada Brasileira de Matemática Nível Universitário Primeira Fase Problema 1 Turbo, o caracol, está participando de uma corrida Nos últimos 1000 mm, Turbo, que está a 1 mm por hora, se motiva e

Leia mais

Análise de componentes independentes aplicada à avaliação de imagens radiográficas de sementes

Análise de componentes independentes aplicada à avaliação de imagens radiográficas de sementes Análise de componentes independentes aplicada à avaliação de imagens radiográficas de sementes Isabel Cristina Costa Leite 1 2 3 Thelma Sáfadi 2 Maria Laene Moreira de Carvalho 4 1 Introdução A análise

Leia mais

UNIVERSIDADE FEDERAL DO PAMPA ALEXANDRE AMARAL MOREIRA

UNIVERSIDADE FEDERAL DO PAMPA ALEXANDRE AMARAL MOREIRA UNIVERSIDADE FEDERAL DO PAMPA ALEXANDRE AMARAL MOREIRA RECONHECIMENTO DE PLACAS DE VEÍCULOS ATRAVÉS DA APLICAÇÃO DE TÉCNICAS DE PROCESSAMENTO DE IMAGENS E REDES NEURAIS ARTIFICIAIS Bagé 2013 ALEXANDRE

Leia mais

Classificação da imagem (ou reconhecimento de padrões): objectivos Métodos de reconhecimento de padrões

Classificação da imagem (ou reconhecimento de padrões): objectivos Métodos de reconhecimento de padrões Classificação de imagens Autor: Gil Gonçalves Disciplinas: Detecção Remota/Detecção Remota Aplicada Cursos: MEG/MTIG Ano Lectivo: 11/12 Sumário Classificação da imagem (ou reconhecimento de padrões): objectivos

Leia mais

Linear Solver Program - Manual do Usuário

Linear Solver Program - Manual do Usuário Linear Solver Program - Manual do Usuário Versão 1.11.0 Traduzido por: Angelo de Oliveira (angelo@unir.br/mrxyztplk@gmail.com) 1 Introdução Linear Program Solver (LiPS) é um pacote de otimização projetado

Leia mais

Previsão do Mercado de Ações Brasileiro utilizando Redes Neurais Artificiais

Previsão do Mercado de Ações Brasileiro utilizando Redes Neurais Artificiais Previsão do Mercado de Ações Brasileiro utilizando Redes Neurais Artificiais Elisângela Lopes de Faria (a) Marcelo Portes Albuquerque (a) Jorge Luis González Alfonso (b) Márcio Portes Albuquerque (a) José

Leia mais

Análise de Arredondamento em Ponto Flutuante

Análise de Arredondamento em Ponto Flutuante Capítulo 2 Análise de Arredondamento em Ponto Flutuante 2.1 Introdução Neste capítulo, chamamos atenção para o fato de que o conjunto dos números representáveis em qualquer máquina é finito, e portanto

Leia mais

UMA HEURÍSTICA GRASP PARA O PROBLEMA ESTENDIDO DE SEQUENCIAMENTO DE CARROS

UMA HEURÍSTICA GRASP PARA O PROBLEMA ESTENDIDO DE SEQUENCIAMENTO DE CARROS UMA HEURÍSTICA GRASP PARA O PROBLEMA ESTENDIDO DE SEQUENCIAMENTO DE CARROS Lucas Middeldorf Rizzo Universidade Federal de Minas Gerais Av. Antônio Carlos, 6627 - Pampulha - Belo Horizonte - MG CEP 31270-901

Leia mais

FAUSTO ROBERTO FERREIRA O USO DE REDE NEURAL ARTIFICIAL MLP NA PREDIÇÃO DE ESTRUTURAS SECUNDÁRIAS DE PROTEÍNAS

FAUSTO ROBERTO FERREIRA O USO DE REDE NEURAL ARTIFICIAL MLP NA PREDIÇÃO DE ESTRUTURAS SECUNDÁRIAS DE PROTEÍNAS FAUSTO ROBERTO FERREIRA O USO DE REDE NEURAL ARTIFICIAL MLP NA PREDIÇÃO DE ESTRUTURAS SECUNDÁRIAS DE PROTEÍNAS Dissertação apresentada ao Instituto de Biociências, Letras e Ciências Exatas da Universidade

Leia mais

UNIVERSIDADE DE SÃO PAULO - USP Faculdade de Economia, Administração e Contabilidade - FEA Instituto de Matemática e Estatística - IME

UNIVERSIDADE DE SÃO PAULO - USP Faculdade de Economia, Administração e Contabilidade - FEA Instituto de Matemática e Estatística - IME UNIVERSIDADE DE SÃO PAULO - USP Faculdade de Economia, Administração e Contabilidade - FEA Instituto de Matemática e Estatística - IME Mestrado Profissionalizante Modelagem Matemática em Finanças PREVISÃO

Leia mais

2 Texturas com Relevo e Equações de Pré Warping

2 Texturas com Relevo e Equações de Pré Warping 2 Texturas com Relevo e Equações de Pré Warping A noção de warping de imagens é fundamental para o entendimento da técnica abordada nesta dissertação. Este capítulo apresenta definições formais para vários

Leia mais

Identificação de Caracteres com Rede Neuronal Artificial com Interface Gráfica

Identificação de Caracteres com Rede Neuronal Artificial com Interface Gráfica Identificação de Caracteres com Rede Neuronal Artificial com Interface Gráfica João Paulo Teixeira*, José Batista*, Anildio Toca**, João Gonçalves**, e Filipe Pereira** * Departamento de Electrotecnia

Leia mais

E-mail: rbrunow@uss.br

E-mail: rbrunow@uss.br ! " # $! &%'! ()*) ( +!, -,./!, ' *3.45 6 3 7 3 8 3 *3.49: 3 8 *- ; ,?3. @*

Leia mais

UNIVERSIDADE DO VALE DO RIO DOS SINOS UNISINOS UNIDADE ACADÊMICA DE PESQUISA E PÓS-GRADUAÇÃO PROGRAMA DE PÓS-GRADUAÇÃO EM GEOLOGIA NÍVEL MESTRADO

UNIVERSIDADE DO VALE DO RIO DOS SINOS UNISINOS UNIDADE ACADÊMICA DE PESQUISA E PÓS-GRADUAÇÃO PROGRAMA DE PÓS-GRADUAÇÃO EM GEOLOGIA NÍVEL MESTRADO UNIVERSIDADE DO VALE DO RIO DOS SINOS UNISINOS UNIDADE ACADÊMICA DE PESQUISA E PÓS-GRADUAÇÃO PROGRAMA DE PÓS-GRADUAÇÃO EM GEOLOGIA NÍVEL MESTRADO Paula Schmitt REDES NEURAIS ARTIFICIAIS APLICADAS NA CLASSIFICAÇÃO

Leia mais

CAPÍTULO 3 REDES NEURAIS ARTIFICIAIS

CAPÍTULO 3 REDES NEURAIS ARTIFICIAIS CAPÍTULO 3 REDES NEURAIS ARTIFICIAIS Este Capítulo apresenta uma introdução às Redes Neurais Artificiais clássicas em geral, e também, uma introdução aos modelos mais usados de redes, baseadas em aprendizagem

Leia mais

Reconhecimento de padrões de calibração em estereofotogrametria através de redes neurais

Reconhecimento de padrões de calibração em estereofotogrametria através de redes neurais UNIVERSIDADE FEDERAL DO RIO DE JANEIRO ESCOLA POLITÉCNICA DEPARTAMENTO DE ELETRÔNICA E DE COMPUTAÇÃO Reconhecimento de padrões de calibração em estereofotogrametria através de redes neurais Autor: Juliana

Leia mais

Encontrando a Linha Divisória: Detecção de Bordas

Encontrando a Linha Divisória: Detecção de Bordas CAPÍTULO 1 Encontrando a Linha Divisória: Detecção de Bordas Contribuíram: Daniela Marta Seara, Geovani Cássia da Silva Espezim Elizandro Encontrar Bordas também é Segmentar A visão computacional envolve

Leia mais

LABORATÓRIO DE CONTROLE I APLICAÇÃO DE COMPENSADORES DE FASE DE 1ª ORDEM E DE 2ª ORDEM

LABORATÓRIO DE CONTROLE I APLICAÇÃO DE COMPENSADORES DE FASE DE 1ª ORDEM E DE 2ª ORDEM UNIVERSIDADE FEDERAL DO VALE DO SÃO FRANCISCO COLEGIADO DE ENGENHARIA ELÉTRICA LABORATÓRIO DE CONTROLE I Experimento 5: APLICAÇÃO DE COMPENSADORES DE FASE DE 1ª ORDEM E DE 2ª ORDEM COLEGIADO DE ENGENHARIA

Leia mais

Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU

Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU Prof. Dr. Sergio Pilling (IPD/ Física e Astronomia) III Resolução de sistemas lineares por métodos numéricos. Objetivos: Veremos

Leia mais

Álgebra Linear. André Arbex Hallack Frederico Sercio Feitosa

Álgebra Linear. André Arbex Hallack Frederico Sercio Feitosa Álgebra Linear André Arbex Hallack Frederico Sercio Feitosa Janeiro/2006 Índice 1 Sistemas Lineares 1 11 Corpos 1 12 Sistemas de Equações Lineares 3 13 Sistemas equivalentes 4 14 Operações elementares

Leia mais

Análise de Regressão Linear Simples e Múltipla

Análise de Regressão Linear Simples e Múltipla Análise de Regressão Linear Simples e Múltipla Carla Henriques Departamento de Matemática Escola Superior de Tecnologia de Viseu Carla Henriques (DepMAT ESTV) Análise de Regres. Linear Simples e Múltipla

Leia mais

PROJETO E CONSTRUÇÃO DE UM CIRCUITO ELÉTRICO PARA A EXECUÇÃO DE REDES NEURAIS ARTIFICIAIS UTILIZANDO COMPONENTES ELETRÔNICOS DE BAIXO CUSTO

PROJETO E CONSTRUÇÃO DE UM CIRCUITO ELÉTRICO PARA A EXECUÇÃO DE REDES NEURAIS ARTIFICIAIS UTILIZANDO COMPONENTES ELETRÔNICOS DE BAIXO CUSTO PROJETO E CONSTRUÇÃO DE UM CIRCUITO ELÉTRICO PARA A EXECUÇÃO DE REDES NEURAIS ARTIFICIAIS UTILIZANDO COMPONENTES ELETRÔNICOS DE BAIXO CUSTO Professor do Instituto Federal de Educação, Ciência e Tecnologia

Leia mais

O comportamento conjunto de duas variáveis quantitativas pode ser observado por meio de um gráfico, denominado diagrama de dispersão.

O comportamento conjunto de duas variáveis quantitativas pode ser observado por meio de um gráfico, denominado diagrama de dispersão. ESTATÍSTICA INDUTIVA 1. CORRELAÇÃO LINEAR 1.1 Diagrama de dispersão O comportamento conjunto de duas variáveis quantitativas pode ser observado por meio de um gráfico, denominado diagrama de dispersão.

Leia mais

INSTITUTO DE PESQUISAS ENERGÉTICAS E NUCLEARES

INSTITUTO DE PESQUISAS ENERGÉTICAS E NUCLEARES INSTITUTO DE PESQUISAS ENERGÉTICAS E NUCLEARES Autarquia associada à Universidade de São Paulo UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA DETERMINAR O TEMPO DE RESPOSTA DE SENSORES DE TEMPERATURA DO

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Professor: Rosalvo Ferreira de Oliveira Neto Disciplina: Inteligência Artificial Tópicos 1. Definições 2. Tipos de aprendizagem 3. Paradigmas de aprendizagem 4. Modos de aprendizagem

Leia mais

1. Introdução... 2. 2. As origens da RNA... 3. 3. O nosso cérebro... 5. 3.1. Plasticidade e modulação sináptica... 5

1. Introdução... 2. 2. As origens da RNA... 3. 3. O nosso cérebro... 5. 3.1. Plasticidade e modulação sináptica... 5 Sumário 1. Introdução... 2 2. As origens da RNA... 3 3. O nosso cérebro... 5 3.1. Plasticidade e modulação sináptica... 5 4. As redes neurais artificiais... 7 4.1. Estrutura da RNA... 7 4.3. Modelos de

Leia mais

2 Estudo dos Acoplamentos

2 Estudo dos Acoplamentos 24 2 Estudo dos Acoplamentos Um problema acoplado é aquele em que dois ou mais sistemas físicos interagem entre si e cujo acoplamento pode ocorrer através de diferentes graus de interação (Zienkiewicz

Leia mais

Representação de números em máquinas

Representação de números em máquinas Capítulo 1 Representação de números em máquinas 1.1. Sistema de numeração Um sistema de numeração é formado por uma coleção de símbolos e regras para representar conjuntos de números de maneira consistente.

Leia mais

PREVISÃO DO PREÇO DA SOJA UTILIZANDO REDES NEURAIS

PREVISÃO DO PREÇO DA SOJA UTILIZANDO REDES NEURAIS PREVISÃO DO PREÇO DA SOJA UTILIZANDO REDES NEURAIS 1 William Hajime Yonenaga e 2 Reginaldo Santana Figueiredo 1 Programa de Pós-Graduação em Engenharia de Produção, 2 Departamento de Engenharia de Produção

Leia mais

4 Estudo de caso: Problema de seqüenciamento de carros

4 Estudo de caso: Problema de seqüenciamento de carros 4 Estudo de caso: Problema de seqüenciamento de carros O problema de seqüenciamento de carros em linhas de produção das indústrias automobilísticas é um tipo particular de problema de escalonamento que

Leia mais

Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU

Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU Prof. Dr. Sergio Pilling (IPD/ Física e Astronomia) II Métodos numéricos para encontrar raízes (zeros) de funções reais. Objetivos:

Leia mais

INSTITUTO TECNOLÓGICO

INSTITUTO TECNOLÓGICO PAC - PROGRAMA DE APRIMORAMENTO DE CONTEÚDOS. ATIVIDADES DE NIVELAMENTO BÁSICO. DISCIPLINAS: MATEMÁTICA & ESTATÍSTICA. PROFº.: PROF. DR. AUSTER RUZANTE 1ª SEMANA DE ATIVIDADES DOS CURSOS DE TECNOLOGIA

Leia mais

Processamento Digital de Imagens

Processamento Digital de Imagens Processamento Digital de Imagens Israel Andrade Esquef a Márcio Portes de Albuquerque b Marcelo Portes de Albuquerque b a Universidade Estadual do Norte Fluminense - UENF b Centro Brasileiro de Pesquisas

Leia mais

3 Estratégia para o enriquecimento de informações

3 Estratégia para o enriquecimento de informações 34 3 Estratégia para o enriquecimento de informações Podemos resumir o processo de enriquecimento de informações em duas grandes etapas, a saber, busca e incorporação de dados, como ilustrado na Figura

Leia mais

Discussão de Sistemas Teorema de Rouché Capelli

Discussão de Sistemas Teorema de Rouché Capelli Material by: Caio Guimarães (Equipe Rumoaoita.com) Discussão de Sistemas Teorema de Rouché Capelli Introdução: Apresentamos esse artigo para mostrar como utilizar a técnica desenvolvida a partir do Teorema

Leia mais

Karine Nayara F. Valle. Métodos Numéricos de Euler e Runge-Kutta

Karine Nayara F. Valle. Métodos Numéricos de Euler e Runge-Kutta Karine Nayara F. Valle Métodos Numéricos de Euler e Runge-Kutta Professor Orientador: Alberto Berly Sarmiento Vera Belo Horizonte 2012 Karine Nayara F. Valle Métodos Numéricos de Euler e Runge-Kutta Monografia

Leia mais

Relatório da Aula Prática sobre Redes Neurais Artificiais

Relatório da Aula Prática sobre Redes Neurais Artificiais Relatório da Aula Prática sobre Redes Neurais Artificiais Instituto de Informática UFRGS Carlos Eduardo Ramisch Cartão: 134657 INF01017 Redes Neurais e Sistemas Fuzzy Porto Alegre, 16 de outubro de 2006.

Leia mais

DESENVOLVIMENTO DE FERRAMENTA COMPUTACIONAL PARA PROJETOS DE REDES NEURAIS ARTIFICIAIS

DESENVOLVIMENTO DE FERRAMENTA COMPUTACIONAL PARA PROJETOS DE REDES NEURAIS ARTIFICIAIS IFSP - INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE SÃO PAULO DESENVOLVIMENTO DE FERRAMENTA COMPUTACIONAL PARA PROJETOS DE REDES NEURAIS ARTIFICIAIS HUGO DA SILVA BERNARDES GONÇALVES São Paulo

Leia mais

Resolução de sistemas lineares

Resolução de sistemas lineares Resolução de sistemas lineares J M Martínez A Friedlander 1 Alguns exemplos Comecemos mostrando alguns exemplos de sistemas lineares: 3x + 2y = 5 x 2y = 1 (1) 045x 1 2x 2 + 6x 3 x 4 = 10 x 2 x 5 = 0 (2)

Leia mais

Um sistema de equações lineares (sistema linear) é um conjunto finito de equações lineares da forma:

Um sistema de equações lineares (sistema linear) é um conjunto finito de equações lineares da forma: Sistemas Lineares Um sistema de equações lineares (sistema linear) é um conjunto finito de equações lineares da forma: s: 2 3 6 a) 5 2 3 7 b) 9 2 3 Resolução de sistemas lineares Metodo da adição 4 100

Leia mais

Utilização de RNA s na Construção do Diagrama de Vida Constante de Probabilidade de Materiais Compósitos

Utilização de RNA s na Construção do Diagrama de Vida Constante de Probabilidade de Materiais Compósitos UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA MECÂNICA Utilização de RNA s na Construção do Diagrama de Vida Constante de Probabilidade de Materiais Compósitos Tese

Leia mais

Previsão do Índice da Bolsa de Valores do Estado de São Paulo utilizandoredes Neurais Artificiais

Previsão do Índice da Bolsa de Valores do Estado de São Paulo utilizandoredes Neurais Artificiais Previsão do Índice da Bolsa de Valores do Estado de São Paulo utilizandoredes Neurais Artificiais Redes Neurais Artificiais Prof. Wilian Soares João Vitor Squillace Teixeira Ciência da Computação Universidade

Leia mais

Otimização de Árvores Sintáticas aplicada à Detecção de Células Cancerígenas

Otimização de Árvores Sintáticas aplicada à Detecção de Células Cancerígenas Trabalho de Pesquisa Operacional Otimização de Árvores Sintáticas aplicada à Detecção de Células Cancerígenas Juliana Oliveira Ferreira Bacharelado em Ciência da Computação UNIFAL MG Objetivo Gerar uma

Leia mais

Gráficos de funções em calculadoras e com lápis e papel (*)

Gráficos de funções em calculadoras e com lápis e papel (*) Rafael Domingos G Luís Universidade da Madeira/Escola Básica /3 São Roque Departamento de Matemática Gráficos de funções em calculadoras e com lápis e papel (*) A difusão de calculadoras gráficas tem levado

Leia mais

O MÉTODO HÚNGARO PARA RESOLUÇÃO DE PROBLEMAS DE OTIMIZAÇÃO

O MÉTODO HÚNGARO PARA RESOLUÇÃO DE PROBLEMAS DE OTIMIZAÇÃO O MÉTODO HÚNGARO PARA RESOLUÇÃO DE PROBLEMAS DE OTIMIZAÇÃO João Cesar Guirado Universidade Estadual de Maringá E-mail: jcguirado@gmail.com Márcio Roberto da Rocha Universidade Estadual de Maringá E-mail:

Leia mais

1 Tipos de dados em Análise de Clusters

1 Tipos de dados em Análise de Clusters Curso de Data Mining Sandra de Amo Aula 13 - Análise de Clusters - Introdução Análise de Clusters é o processo de agrupar um conjunto de objetos físicos ou abstratos em classes de objetos similares Um

Leia mais

PROCEDIMENTO DE CÁLCULO DE INCERTEZA NA MEDIÇÃO DE ALTA TENSÃO

PROCEDIMENTO DE CÁLCULO DE INCERTEZA NA MEDIÇÃO DE ALTA TENSÃO PROCEDIMENTO DE CÁLCULO DE INCERTEZA NA MEDIÇÃO DE ALTA TENSÃO Cláudio R. S. Silva,Thiago P. S. Azevedo, Ewerton R. Granhen 3, Ivan S. S. Silva 4 Universidade Federal do Pará, Belém, Brasil, claudiorui75@yahoo.com.br

Leia mais

EQUAÇÕES DIFERENCIAIS

EQUAÇÕES DIFERENCIAIS GRUPO Educação adistância Caderno de Estudos EQUAÇÕES DIFERENCIAIS Prof. Ruy Piehowiak Editora UNIASSELVI 2012 NEAD Copyright Editora UNIASSELVI 2012 Elaboração: Prof. Ruy Piehowiak Revisão, Diagramação

Leia mais

Projeto de Redes Neurais e MATLAB

Projeto de Redes Neurais e MATLAB Projeto de Redes Neurais e MATLAB Centro de Informática Universidade Federal de Pernambuco Sistemas Inteligentes IF684 Arley Ristar arrr2@cin.ufpe.br Thiago Miotto tma@cin.ufpe.br Baseado na apresentação

Leia mais

TÍTULO: PROPOSTA DE METODOLOGIA BASEADA EM REDES NEURAIS ARTIFICIAIS MLP PARA A PROTEÇÃO DIFERENCIAL DE TRANSFORMADORES DE POTÊNCIA

TÍTULO: PROPOSTA DE METODOLOGIA BASEADA EM REDES NEURAIS ARTIFICIAIS MLP PARA A PROTEÇÃO DIFERENCIAL DE TRANSFORMADORES DE POTÊNCIA TÍTULO: PROPOSTA DE METODOLOGIA BASEADA EM REDES NEURAIS ARTIFICIAIS MLP PARA A PROTEÇÃO DIFERENCIAL DE TRANSFORMADORES DE POTÊNCIA CATEGORIA: CONCLUÍDO ÁREA: ENGENHARIAS E ARQUITETURA SUBÁREA: ENGENHARIAS

Leia mais

Como foi visto no tópico anterior, existem duas formas básicas para representar uma função lógica qualquer:

Como foi visto no tópico anterior, existem duas formas básicas para representar uma função lógica qualquer: ELETRÔNI IGITl I FUNÇÕES LÓGIS Formas de representação de uma função lógica omo foi visto no tópico anterior, existem duas formas básicas para representar uma função lógica qualquer: Soma de Produtos Produtos

Leia mais

Verificação e Validação em CFD

Verificação e Validação em CFD Erro de arredondamento. Erro iterativo. Erro de discretização. As três componentes do erro numérico têm comportamentos diferentes com o aumento do número de graus de liberdade (refinamento da malha). Erro

Leia mais

Bacharelado em Ciência da Computação Matemática Discreta

Bacharelado em Ciência da Computação Matemática Discreta Bacharelado em Ciência da Computação Matemática Discreta Prof. Diego Mello da Silva Instituto Federal de Minas Gerais - Campus Formiga 19 de fevereiro de 2013 diego.silva@ifmg.edu.br (IFMG) Matemática

Leia mais

UNIVERSIDADE DO ALGARVE ESCOLA SUPERIOR DE TECNOLOGIA

UNIVERSIDADE DO ALGARVE ESCOLA SUPERIOR DE TECNOLOGIA UNIVERSIDADE DO ALGARVE ESCOLA SUPERIOR DE TECNOLOGIA CURSO BIETÁPICO EM ENGENHARIA CIVIL º ciclo Regime Diurno/Nocturno Disciplina de COMPLEMENTOS DE MATEMÁTICA Ano lectivo de 7/8 - º Semestre Etremos

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Algoritmo k Means Mestrado/Doutorado em Informática (PPGIa) Pontifícia Universidade Católica do Paraná (PUCPR) 2 Problema do Agrupamento Seja x = (x 1, x 2,,

Leia mais

Algoritmo Evolutivo com Inspiração Quântica, Representação Mista e Decaimento de Pesos Aplicado a Neuroevolução

Algoritmo Evolutivo com Inspiração Quântica, Representação Mista e Decaimento de Pesos Aplicado a Neuroevolução ISSN Number 38 October 2014 Algoritmo Evolutivo com Inspiração Quântica, Representação Mista e Decaimento de Pesos Aplicado a Neuroevolução Antonio Cesar de Oliveira Pitta Botelho Internal Research Reports

Leia mais

Prova de Admissão para o Mestrado em Matemática IME-USP - 23.11.2007

Prova de Admissão para o Mestrado em Matemática IME-USP - 23.11.2007 Prova de Admissão para o Mestrado em Matemática IME-USP - 23.11.2007 A Nome: RG: Assinatura: Instruções A duração da prova é de duas horas. Assinale as alternativas corretas na folha de respostas que está

Leia mais

Casamento de Cadeias. Introdução. Introdução. Estrutura de Dados. Cadeia de caracteres: sequência de elementos denominados caracteres.

Casamento de Cadeias. Introdução. Introdução. Estrutura de Dados. Cadeia de caracteres: sequência de elementos denominados caracteres. Introdução de Cadeias Estrutura de Dados II Prof. Guilherme Tavares de Assis Universidade Federal de Ouro Preto UFOP Instituto de Ciências Exatas e Biológicas ICEB Departamento de Computação DECOM 1 Cadeia

Leia mais

APLICAÇÕES DE ALGUMAS TÉCNICAS MULTIVARIADAS (Componentes Principais, Variáveis Canônicas e Correlações Canônicas)

APLICAÇÕES DE ALGUMAS TÉCNICAS MULTIVARIADAS (Componentes Principais, Variáveis Canônicas e Correlações Canônicas) APLICAÇÕES DE ALGUMAS TÉCNICAS MULTIVARIADAS (Componentes Principais, Variáveis Canônicas e Correlações Canônicas) ÍNDICE Página 1. INTRODUCÃO... 1 2. COMPONENTES PRINCIPAIS... 1 2.1. Introdução... 1 2.2.

Leia mais

Redes Neurais no MATLAB 6.1

Redes Neurais no MATLAB 6.1 Redes Neurais no MATLAB 6.1 Redes Neurais no MATLAB Duas formas de utilização: Linhas de comando, e m-files Interface gráfica (NNTool) 1 Redes Neurais no MATLAB Duas formas de utilização: Linhas de comando,,

Leia mais

UNISINOS - UNIVERSIDADE DO VALE DO RIO DOS SINOS

UNISINOS - UNIVERSIDADE DO VALE DO RIO DOS SINOS UNISINOS - UNIVERSIDADE DO VALE DO RIO DOS SINOS Curso: Informática Disciplina: Redes Neurais Prof. Fernando Osório E-mail: osorio@exatas.unisinos.br EXEMPLO DE QUESTÕES DE PROVAS ANTIGAS 1. Supondo que

Leia mais

aplicada a problemas de poluição do ar

aplicada a problemas de poluição do ar Biomatemática 17 (2007), 21 34 ISSN 1679-365X Uma Publicação do Grupo de Biomatemática IMECC UNICAMP Programação matemática fuzzy aplicada a problemas de poluição do ar Luiza A. Pinto Cantão 1, Depto.

Leia mais

REPRESENTAÇÃO DE SUPERFÍCIES. Introdução ao Projeto e Manufatura assistido por Computador PROF. ALTAMIR DIAS

REPRESENTAÇÃO DE SUPERFÍCIES. Introdução ao Projeto e Manufatura assistido por Computador PROF. ALTAMIR DIAS REPRESENTAÇÃO DE SUPERFÍCIES Introdução ao Projeto e Manufatura assistido por Computador PROF. ALTAMIR DIAS 17/4/2001 1 Introdução Superfícies são usadas: projeto de forma e representação de objetos complexos

Leia mais

PP 301 Engenharia de Reservatórios I 11/05/2011

PP 301 Engenharia de Reservatórios I 11/05/2011 PP 301 Engenharia de Reservatórios I 11/05/2011 As informações abaixo têm como objetivo auxiliar o aluno quanto à organização dos tópicos principais abordados em sala e não excluem a necessidade de estudo

Leia mais

Faculdade de Computação

Faculdade de Computação UNIVERSIDADE FEDERAL DE UBERLÂNDIA Faculdade de Computação Disciplina : Teoria da Computação Professora : Sandra Aparecida de Amo Lista de Exercícios n o 2 Exercícios sobre Modelos de Máquinas de Turing

Leia mais

Universidade Federal de Ouro Preto - UFOP Instituto de Ciências Exatas e Biológicas ICEB

Universidade Federal de Ouro Preto - UFOP Instituto de Ciências Exatas e Biológicas ICEB Universidade Federal de Ouro Preto - UFOP Instituto de Ciências Exatas e Biológicas ICEB PROBLEMA DE PROGRAMAÇÃO DE VEÍCULOS 1 (Vehicle Scheduling Problem) Cássio Roberto de Araújo cassio@em.ufop.br Elva

Leia mais

Conceitos: A fração como coeficiente. A fração e a sua representação gráfica. Termos que compõem uma fração. Fração unidade. Fração de um número.

Conceitos: A fração como coeficiente. A fração e a sua representação gráfica. Termos que compõem uma fração. Fração unidade. Fração de um número. Unidade 1. As frações. Enquadramento Curricular em Espanha: Objetos de aprendizagem: 1.1. Conceito de fração Identificar os termos de uma fração. Escrever e ler frações. Comparar frações com igual denominador.

Leia mais

DIRCEU ZEFERINO RODRIGUES REDES NEURAIS, IDENTIDADE DE MODELOS E RESPOSTA DA CEBOLA Á ADUBAÇÃO NITROGENADA

DIRCEU ZEFERINO RODRIGUES REDES NEURAIS, IDENTIDADE DE MODELOS E RESPOSTA DA CEBOLA Á ADUBAÇÃO NITROGENADA DIRCEU ZEFERINO RODRIGUES REDES NEURAIS, IDENTIDADE DE MODELOS E RESPOSTA DA CEBOLA Á ADUBAÇÃO NITROGENADA Dissertação apresentada à Universidade Federal de Viçosa, como parte das exigências do Programa

Leia mais

3 a ij x j ), i = 1,2,3, (1.1)

3 a ij x j ), i = 1,2,3, (1.1) TEMA Tend. Mat. Apl. Comput., 5, No. 2 (2004), 239-248. c Uma Publicação da Sociedade Brasileira de Matemática Aplicada e Computacional. Controle Ótimo para um Sistema Caótico de Lotka-Volterra A. MOLTER

Leia mais

Instituto Superior Técnico Departamento de Matemática Última actualização: 11/Dez/2003 ÁLGEBRA LINEAR A

Instituto Superior Técnico Departamento de Matemática Última actualização: 11/Dez/2003 ÁLGEBRA LINEAR A Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Última actualização: 11/Dez/2003 ÁLGEBRA LINEAR A FICHA 8 APLICAÇÕES E COMPLEMENTOS Sistemas Dinâmicos Discretos (1) (Problema

Leia mais

FACULDADE DE CIÊNCIA E TECNOLOGIA. Cursos de Engenharia. Prof. Álvaro Fernandes Serafim

FACULDADE DE CIÊNCIA E TECNOLOGIA. Cursos de Engenharia. Prof. Álvaro Fernandes Serafim FACULDADE DE CIÊNCIA E TECNOLOGIA Cursos de Engenharia Prof. Álvaro Fernandes Serafim Última atualização: //7. Esta apostila de Álgebra Linear foi elaborada pela Professora Ilka Rebouças Freire. A formatação

Leia mais

PROJETO DE TRABALHO DE CONCLUSÃO DE CURSO

PROJETO DE TRABALHO DE CONCLUSÃO DE CURSO Alexandre Moreira Batista Higor Fernando Manginelli PROJETO DE TRABALHO DE CONCLUSÃO DE CURSO Trabalho apresentado para a disciplina Laboratório de Estatística II do curso de graduação em Estatística da

Leia mais

FLAVIA MESCKO FERNANDES VELOCIDADE DE CONVERGÊNCIA DE MÉTODOS DE OTIMIZAÇÃO IRRESTRITA

FLAVIA MESCKO FERNANDES VELOCIDADE DE CONVERGÊNCIA DE MÉTODOS DE OTIMIZAÇÃO IRRESTRITA FLAVIA MESCKO FERNANDES VELOCIDADE DE CONVERGÊNCIA DE MÉTODOS DE OTIMIZAÇÃO IRRESTRITA CURITIBA DEZEMBRO, 2010 FLAVIA MESCKO FERNANDES VELOCIDADE DE CONVERGÊNCIA DE MÉTODOS DE OTIMIZAÇÃO IRRESTRITA Monografia

Leia mais