Aprendizado de Máquina (Machine Learning)

Documentos relacionados
Inteligência Artificial

Redes Neurais. Profa. Flavia Cristina Bernardini

AULA 03 MEDIDAS DE RESISTÊNCIA ELÉTICA

Aplicações Práticas com Redes Neurais Artificiais em Java

Códigos de bloco. Instituto Federal de Santa Catarina Curso superior de tecnologia em sistemas de telecomunicação Comunicações móveis 2

Curso de Formação de Oficiais Conhecimentos Específicos ENGENHARIA DE COMPUTAÇÃO CADERNO DE QUESTÕES

MLP (Multi Layer Perceptron)

Redes Neurais Artificiais

Probabilidade. Luiz Carlos Terra

Modelos de Regressão Linear Simples - Erro Puro e Falta de Ajuste

UNIVERSIDADE FEDERAL DA BAHIA ESCOLA POLITÉCNICA DEPARTAMENTO DE ENGENHARIA QUÍMICA ENG 008 Fenômenos de Transporte I A Profª Fátima Lopes

[RESOLUÇÃO] Economia I; 2012/2013 (2º semestre) Prova da Época Recurso 3 de Julho de 2013

3. REDES DE CAMADA ÚNICA

Ondas EM no Espaço Livre (Vácuo)

PESQUISA OPERACIONAL -PROGRAMAÇÃO LINEAR. Prof. Angelo Augusto Frozza, M.Sc.

AULA 07 Distribuições Discretas de Probabilidade

Capítulo 5. Sensores Digitais

Processamento Digital de Sinais. Conversão A/D e D/A. Prof. Dr. Carlos Alberto Ynoguti

Teoria Básica e o Método Simplex. Prof. Ricardo Santos

UM JOGO BINOMIAL 1. INTRODUÇÃO

MÓDULO 2 Topologias de Redes

Matrizes. matriz de 2 linhas e 2 colunas. matriz de 3 linhas e 3 colunas. matriz de 3 linhas e 1 coluna. matriz de 1 linha e 4 colunas.

Matriz de Sensibilidade Modal

Testes de Hipóteses Estatísticas

ÁLGEBRA. Aula 5 _ Função Polinomial do 1º Grau Professor Luciano Nóbrega. Maria Auxiliadora

2 Conceitos Básicos. onde essa matriz expressa a aproximação linear local do campo. Definição 2.2 O campo vetorial v gera um fluxo φ : U R 2 R

Aula 15 Amplificadores Operacionais (pág. 453 a 459)

AVALIAÇÃO DE IMÓVEIS UTILIZANDO ANÁLISE MULTICRITÉRIO E REDES NEURAIS ARTIFICIAIS

Relatório da Aula Prática sobre Redes Neurais Artificiais

0.1 Introdução Conceitos básicos

Radar de Penetração no Solo e Meio- Ambiente

Regressão, Interpolação e Extrapolação Numéricas

INTRODUÇÃO. Noções preliminares. Um pouco de matemática. 100 Pb

FACULDADE DO LITORAL SUL PAULISTA - FALS JEAN MAMEDE DE OLIVEIRA

Aula 5. Uma partícula evolui na reta. A trajetória é uma função que dá a sua posição em função do tempo:

ARQUITETURA DE COMPUTADORES. Professor: Clayton Rodrigues da Siva

FACULDADE DE CIÊNCIAS E TECNOLOGIA. Redes de Telecomunicações (2006/2007)

Departamento de Informática - PUC-Rio INF 1005 Programação I P1 22/09/2010 Nota

Função Seno. Gráfico da Função Seno

Lógica de Programação. Profas. Simone Campos Camargo e Janete Ferreira Biazotto

ANÁLISE DE CIRCUITOS I ( AULA 03)

ADMINISTRAÇÃO DE BANCOS DE DADOS MÓDULO 8

Fundamentos de Teste de Software

Modelos Pioneiros de Aprendizado

3 Metodologia de Previsão de Padrões de Falha

Métodos Estatísticos Avançados em Epidemiologia

Se inicialmente, o tanque estava com 100 litros, pode-se afirmar que ao final do dia o mesmo conterá.

Exercícios de Fixação Aulas 05 e 06

Prof. Daniela Barreiro Claro

Inteligência Artificial. Redes Neurais Artificiais

Avaliação de Empresas Profa. Patricia Maria Bortolon

DISTRIBUIÇÕES ESPECIAIS DE PROBABILIDADE DISCRETAS

MATÉRIA TÉCNICA APTTA BRASIL SENSORES MAGNETO-RESTRITIVOS UM CRUZAMENTO DE DOIS TIPOS DE SENSORES CONHECIDOS.

Módulo de Equações do Segundo Grau. Equações do Segundo Grau: Resultados Básicos. Nono Ano

Temática Circuitos Eléctricos Capítulo Teoria dos Circuitos DIPOLO ELÉCTRICO INTRODUÇÃO

Exemplo de aprendizagem máquina

Prof. Neckel FÍSICA 1 PROVA 1 TEMA 2 PARTE 1 PROF. NECKEL POSIÇÃO. Sistema de Coordenadas Nome do sistema Unidade do sistema 22/02/2016.

Resolução de circuitos usando Teorema de Thévenin Exercícios Resolvidos

Os passos a seguir servirão de guia para utilização da funcionalidade Acordo Financeiro do TOTVS Gestão Financeira.

Sistemas Digitais II. Interface com o mundo analógico. Prof. Marlon Henrique Teixeira Abril/2014

Capítulo VI. Teoremas de Circuitos Elétricos

Unidade 3 Função Afim

UTILIZAÇÃO DE SENSORES CAPACITIVOS PARA MEDIR UMIDADE DO SOLO.

Representação de Circuitos Lógicos

Classificação Automática dos Usuários da Rede Social Acadêmica Scientia.Net

10. CPU (Central Processor Unit) Conjunto das instruções Estrutura interna Formato das instruções...

Algoritmos e Estruturas de Dados I. Recursividade. Pedro O.S. Vaz de Melo

APARECIDO NARDO JUNIOR APLICAÇÃO DE REDES NEURAIS UTILIZANDO O SOFTWARE MATLAB

Relatório Preliminar Experimento 6.2 Reologia

IBM1018 Física Básica II FFCLRP USP Prof. Antônio Roque Aula 7

Física Experimental III

Aula 3 Função do 1º Grau

Sistema de Autenticação/Identificação Pessoal Biométrica Através da Palma da Mão com o Auxílio de Redes Neurais Artificiais

Definição de determinantes de primeira e segunda ordens. Seja A uma matriz quadrada. Representa-se o determinante de A por det(a) ou A.

DETECÇÃO DE INTRUSÕES BASEADA EM USER PROFILING E REDES NEURAIS

Estudo de Caso no Mercado Imobiliário de Castelo Branco

A. Equações não lineares

Álgebra Linear Aplicada à Compressão de Imagens. Universidade de Lisboa Instituto Superior Técnico. Mestrado em Engenharia Aeroespacial

VIII Oficinas de Formação A Escola na Sociedade da Informação e do Conhecimento praticar ao Sábado. E-learning. 3 de Março de 2007

Universidade Federal de Juiz de Fora - Laboratório de Eletrônica - CEL037

Introdução à Engenharia de Sistemas INOVAÇÃO?

Otimização Linear Aplicada a Problemas de Planejamento de Produção

[1] Na terceira sessão, analisamos o Perceptron de Múltiplas Camadas inclusive um problema típico como o XOR.

2 Workshop processamento de artigos em serviços de saúde Recolhimento de artigos esterilizados: é possível evitar?

Reconhecimento de Caracteres Através de Redes Neurais Artificiais com Aplicação a Placas de Automóveis

Flávia Rodrigues. Silves, 26 de Abril de 2010

ÁLGEBRA BOOLEANA- LÓGICA DIGITAL

Resumo: Estudo do Comportamento das Funções. 1º - Explicitar o domínio da função estudada

8 -SISTEMA DE PROJEÇÃO UNIVERSAL TRANSVERSA DE MERCATOR - UTM

Lucratividade: Crescer, Sobreviver ou Morrer

ENG1000 Introdução à Engenharia

GSCI - GSIG. 2 Programação Linear. Prof. Ricardo Villarroel Dávalos, Dr. Eng.

Programação Orientada a Objetos SANTOS, Rafael

TÉCNICAS DE APRENDIZAGEM DE MÁQUINA PARA PREVISÃO DE SUCESSO EM IMPLANTES DENTÁRIOS

Capítulo1 Tensão Normal

Aula de Hoje. Processamento Estatístico da Linguagem Natural. Decodificação. Decodificação. A treliça do algoritmo Viterbi

Curso de Redes Neurais utilizando o MATLAB

s:

Relatório de uma Aplicação de Redes Neurais

Transcrição:

Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira

Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em 1943 por Warren McCulloch (médico) e Walter Pitts (estatístico) Publicação no Bulletin of Mathematical Biophysics Título: A Logical Calculus of the Ideas Immanet in Nervous Activity Referência número 1 para a teoria das redes neurais artificiais.

Neurônio Booleano de McCulloch- Pitts (Modelo MCP) n terminais de entrada x 1, x 2,,x n (dendritos) Apenas um terminal de saída y (axônio) Terminais de entradas com pesos associados w 1, w 2,,w n cujos valores podem ser positivos ou negativos (sinapses) O efeito de uma sinapse particular i no neurônio pós-sináptico é dado por x i w i.

Neurônio Booleano de McCulloch- Pitts (Modelo MCP)

Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Neurônio biológico dispara quando a soma dos impulsos ultrapassa o seu limiar de excitação (threshold). Modelo MCP faz a soma dos valores x i w i (soma ponderada) e decide se o neurônio deve ou não disparar (0 ou 1). A ativação do neurônio é obtida pela função de ativação.

Neurônio Booleano de McCulloch- Pitts (Modelo MCP) No modelo MCP a função de ativação é dada pela função de limiar n i=1 x i w i θ Onde n é o número de entradas, w i é o peso associado à entrada x i e o é o limiar (threshold) do neurônio.

Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Modelo simplificado. Considera que os nodos em cada camada disparam sincronamente. Redes MCP com apenas uma camada só conseguem implementar funções linearmente separáveis. Pesos negativos são mais adequados para representar disparos inibidores. Modelo proposto com pesos fixos, não-ajustáveis.

Neurônio Booleano de McCulloch- Pitts (Modelo MCP) O Modelo MCP é um discriminador linear que pode ser usado, em certos casos, como classificador de padrões. As funções lógicas E e OU são linearmente separáveis (implementáveis com o modelo MCP) A função XOR ou ou-exclusivo não é linearmente separável.

Funções Booleanas representadas no plano binário x 2 x 2 x 2 (0,1) (1,1) (0,1) (1,1) (0,1) (1,1) (0,0) (1,0) x 1 (0,0) (1,0) x 1 (0,0) (1,0) x 1 AND OR XOR

Função E (And) com valores bipolares - X 2 + Entrada(x 1,x 2 ) Saída(y) (1,1) +1 (1,-1) -1 (-1,1) -1 (-1,-1) -1 X 1 - -

Funções de Ativação Uma função y=f(x) descreve uma relação (mapeamento entradasaída) de x para y. Exemplo 1: O limiar (threshold) ou função sinal sgn(x) é definida como:

Funções de Ativação Exemplo 2: A função logística ou sigmóide Sigmoid(x) é definida como:

Aprendizado Capacidade de aprender por exemplos; Determinar a intensidade de conexões entre neurônios; Processo iterativo de ajustes aplicado aos pesos; Conhecimento distribuído por toda a rede; Capacidade de extrair regras básicas a partir de dados reais.

Aprendizado Supervisionado Método mais comum no treinamento das RNAs. A entrada e saída desejadas para a rede são fornecidas por um supervisor externo. Ajustar os parâmetros da rede, de forma a encontrar uma ligação entre os pares de entrada e saída fornecidos.

Aprendizado Supervisionado SUPERVISOR SAÍDA ENTRADA RNA _ + ERRO

Aprendizado Supervisionado A desvantagem do método é que, na ausência do supervisor, a rede não conseguirá aprender novas estratégias para situações não cobertas pelos exemplos do treinamento da rede. Algoritmos mais conhecidos: regra delta e o algoritmo backpropagation.

Correção de Erros Procura minimizar a diferença entre a soma ponderada das entradas pelos pesos (saída calculada pela rede) e a saída desejada (erro de resposta atual da rede). O termo e(t) apresenta-se como: e(t) = d(t) y(t), onde d(t) é a saída desejada e y(t) é a resposta atual (calculada) no instante do tempo t.

Correção de Erros A forma genérica para alteração dos pesos por correção de erros é: w i (t+1)=w i (t) + e(t)x i (t) Onde é a taxa de aprendizado e x i (t) é a entrada para o neurônio i no tempo t. O ajuste dos pesos deve ser proporcional ao produto do erro pelo valor de entrada da sinapse naquele instante de tempo.

Regra Delta Possui uma saída desejada d j, assim o peso será proporcional à saída. W ij =(d j a j )a i A Regra Delta depende da função de ativação dos neurônios e minimiza o erro entre a saída desejada e o valor de ativação do neurônio. i j ENTRADA a i a j W ij

Perceptron Frank Rosenblatt (1958) Reconhecimento de letras maiúsculas do alfabeto A conectividade desenvolvida nas redes biológicas contém um grande número aleatório de elementos; Pode ser treinado; A topologia original era composta por unidades de entrada (retina), por um nível intermediário e por um nível de saída formado pelas unidades de resposta.

Perceptron Embora a topologia original possua três camadas, ela é conhecida como perceptron de uma única camada. A retina consiste basicamente em unidades sensoras, e as unidades intermediárias de associação

Perceptron Retina Saída Associação

Perceptron X1 1 w 1 b rede=b+ i Saída=f(rede) = x i w i {1 se rede, 0 se rede < } X2 w 2 Y w 3 X3 Equação fundamental do Perceptron x1.w1+x2.w2+x3.w3= Equação de uma reta

Perceptron (Algoritmo) Passo 1. Inicializar pesos e bias (para simplificar, setar os pesos e bias igual a zero e a taxa de aprendizado (0 < 1) Passo 1. Enquanto a condição de parada for falsa, faça os passos 2 até 6. Passo 2. Para cada par de treinamento s:t, faça os passos 3 até 5 Passo 3. Unidades de entrada (valores) Passo 4. Calcular o valor da unidade de saída rede=b+ i y = 1 se rede, 0 se - rede, -1 se rede < - Passo 5. Ajustar pesos e bias se ocorrer um erro para o padrão Se y t w i (new)=w i (old)+ tx i b(new)=b(old)+ t senão w i (new)=w i (old) b(new0=b(old) Passo 6. Testar condição de parada Se nenhum peso mudou no passo 2, para; senão continua x i w i

Perceptron Múltiplas saídas