Aprendizado de Máquina

Documentos relacionados
Redes Neurais Convolucionais

Redes Neurais Convolucionais

Rede RBF (Radial Basis Function)

Inteligência Artificial

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

Aprendizado de Máquina

3 Redes Neurais Artificiais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

Por que Redes Neurais?

SEMINÁRIO DOS ARTIGOS:

REDES NEURAIS ARTIFICIAIS

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

RECONHECIMENTO DE CARACTERES EM IMAGENS COM RUÍDO

2. Redes Neurais Artificiais

PRINCÍPIOS DE NEUROCOMPUTAÇÃO

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

INTELIGÊNCIA ARTIFICIAL

2. Redes Neurais Artificiais

READING DIGITS IN NATURAL IMAGES WITH UNSUPERVISED FEATURE LEARNING

Mineração de Dados em Biologia Molecular

Paradigmas de Aprendizagem

Determinação de vícios refrativos oculares utilizando Support Vector Machines

Classificação Linear. André Tavares da Silva.

Redes Neurais Artificial. Prática. Inteligência Artificial

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA

Neural Networks. Neurônios: Elementos aritméticos simples. Redes Neuronais: conj de neurônios interligados.

Inteligência Artificial Redes Neurais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning)

Redes Neurais. Motivação. Componentes do neurônio. Cérebro humano. Criar máquinas capazes de operar independentemente do homem:

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Tópicos sobre Redes Neurais

Redes Neurais Artificial

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais

IA - TensorFlow. Paulo Cotta

Redes neurais artificiais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Fundamentos de Inteligência Artificial [5COP099]

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Reconhecimento de Padrões/Objetos

JAI 6 - Deep Learning Teoria e Prática

Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela

Rede Perceptron. Capítulo 3

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

Redes Neurais Artificiais

Echo State Networks. Fabricio Breve João Bertini

Redes Convolucionais Aplicadas em Visão Computacional

Aprendizado de Máquina

Protótipo de Software para Reconhecimento de Impressões Digitais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Redes Neurais MLP: Exemplos e Características

INF 1771 Inteligência Artificial

Projeto Multiresolução de Operadores Morfológicos. Morfológicos a Partir de Exemplos

Unidade 08 MATLAB Neural Network Toolkit

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Redes Neurais Artificiais

Aprendizagem de Máquina

Aprendizado de Máquina

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION - VGG

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

Universidade de São Paulo

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

INF011 - Seminários de Pesquisa II

Introdução a Sistemas Inteligentes

Aprendizado de Máquina

Multiple Layer Perceptron

Visão computacional. Juliana Patrícia Detroz Orientador: André Tavares Silva

RECONHECIMENTO DE CARACTERES EM PLACAS AUTOMOTIVAS UTILIZANDO REDES NEURAIS

Introdução à Aprendizagem Profunda

Redes Neurais Artificiais - Introdução. Visão Computacional

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

4 Redes Neurais Artificiais

Aula 1 Introdução - RNA

Aprendizado em IA. Prof. Carlos H. C. Ribeiro ITA Divisão de Ciência da Computação

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior

Mineração de Dados em Biologia Molecular

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

Aprendizado de Máquina

Previsão de consumos a curto prazo

INF 1771 Inteligência Artificial

Redes Neurais não Supervisionadas: SOM

Region Based CNNs. Francisco Calaça Xavier. Programa de pós-graduação em Ciências da Computação Mestrado e Doutorado. Instituto de Informática UFG

Redes Neurais e Sistemas Fuzzy

Aprendizado de Máquina

SCC Capítulo 2 Topologia e Representação

Transcrição:

Aprendizado de Máquina Principais tópicos Aprendizado profundo André C P L F de Carvalho Posdoutorando: Isvani Frias-Blanco ICMC-USP Introdução Redes profundas Aprendizado profundo Redes autodecodificadoras Redes convolucionais André de Carvalho - ICMC/USP 2 Limitações de AM Dificuldade de utilizar os dados no formato original Necessário extrair características (atributos) Transformar dados de entrada em um vetor de características Que pode ser usado como novo vetor de entrada por algoritmos de AM Deve gerar representações que: Selecionam aspectos relevantes para a classificação correta Ignoram aspectos irrelevantes para a classificação Alternativa 1: extrair manualmente características que considerar relevantes Necessário poder projetar bons extratores e ter bom conhecimento do domínio de aplicação Caro e subjetivo André de Carvalho - ICMC/USP 3 André de Carvalho - ICMC/USP 4 Alternativa 2: utilizar extrator genérico de características não-lineares Ex: funções kernel genéricas Gaussiana, polinomial, Pode ter baixa generalização para exemplos muito diferentes dos de treinamento Alternativa 3: aprender a extrair boas características automaticamente Usando um algoritmo genérico de aprendizado Redes neurais profundas Redes neurais MLP em geral têm 1 camada intermediária Redes neurais rasas (shallow) Poucas camadas dificulta induzir função que represente bem os dados de treinamento Muitas camadas + backpropagation levam a soluções pobres Problemas de atribuição de erro e lentidão e Pequena quantidade de exemplos de treinamento André de Carvalho - ICMC/USP 5 André de Carvalho - ICMC/USP 6 1

Outros problemas do backprop Pode convergir para mínimos locais Não é tão problemático quando número de atributos preditivos é grande Pode usar apenas dados rotulados Maioria dos dados é gerado sem rótulo Custo de rotular manualmente pode ser elevado Complexidade em teoria de circuitos Sugere que arquiteturas mais profundas podem ser mais eficientes Quando a tarefa é complexa e existem dados suficientes para capturar essa complexidade Big data Necessário utilizar algoritmos de treinamento apropriados André de Carvalho - ICMC/USP 7 André de Carvalho - ICMC/USP 8 Qualquer algoritmo pode ser implementado em um circuito Booleano profundo o suficiente Uma camada para cada passo de execução do algoritmo Quanto mais profundo o circuito, mais complexo o algoritmo que pode ser implementado Redes neurais são mais eficientes que circuitos booleanos Precisam de menos camadas que circuitos Booleanos para o mesmo problema Redes mais profundas (RNPs) Algoritmos com mais passos Algoritmos mais poderosos André de Carvalho - ICMC/USP 9 André de Carvalho - ICMC/USP 10 Redes com 2 camadas e poucas unidades escondidas ordenam N números de N bits Impossível fazer com circuito Booleano de 2 camadas Precisa de muito mais camadas Neurônios realizam operações de limiar de sinal Neurônios naturais são lentos #disparos < 100 vezes por segundo Para resolvermos problema em 01s Podemos ter uma sequência de no máximo 10 disparos Rede natural com 10 camadas faz o que fazemos em 01s André de Carvalho - ICMC/USP 11 O que podemos fazer em 01s Reconhecer uma face Reconhecer emoção Entender uma fala Teoricamente, RNPs podem fazer o que seres humanos fazem, em menos tempo Basta encontrar valores corretos para seus pesos André de Carvalho - ICMC/USP 12 2

Redes profundas Arquitetura com várias camadas Mais de uma camada intermediária Camadas podem ter propósitos diferentes Aprendizado profundo Algoritmo de treinamento para treinar redes profundas Não muda muito em relação às redes MLP e seu treinamento André de Carvalho - ICMC/USP 13 Redes profundas Desde as redes MLPs Camadas intermediárias extraem características Dificuldades: Algoritmo de treinamento backpropagation funcionava bem até poucas camadas Problema de atribuição de erro Tecnologia computacional disponível Uso de conjuntos de dados pequenos André de Carvalho - ICMC/USP 14 RNs profundas Família de técnicas Características são extraídas hierarquicamente por aprendizado Não supervisionado Pode usar dados não rotulados Semi-supervisionado Características cada vez mais complexas são extraídas Deep learning Aprendizado profundo Técnicas de aprendizado representacional Converter fala em texto em fala Diagnosticar problemas de acordo com sintomas Identificar objetos em imagens André de Carvalho - ICMC/USP 15 André de Carvalho - ICMC/USP 16 Deep learning Aprendem a extrair representações de dados de entrada Que podem ser utilizadas para tarefas de classificação Usam estruturas (arquiteturas) com vários níveis de representação Composição de módulos (camadas) de processamento simples e não linear Cada camada transforma a representação obtida pela camada anterior André de Carvalho - ICMC/USP 17 Representações da entrada se tornam cada vez mais abstratas Compor de várias camadas permite extrair características complexas Aprender funções complexas Cada transformação amplifica aspectos importantes para a classificação e elimina variações irrelevantes André de Carvalho - ICMC/USP 18 3

Inicialmente características simples Nível crescente de abstração Cada camada faz uma transformação não linear das características recebidas pixels arestas partes de objetos objetos Aspectos positivos das RNPs Biologicamente plausíveis Para dados com n atributos preditivos Número de neurônios necessários em uma rede rasa cresce exponencialmente com n Em uma rede profunda, esse número cresce e no máximo linearmente com n Redes mais profundas podem usar menos pesos e parâmetros Ex: paridade André de Carvalho - ICMC/USP 19 André de Carvalho - ICMC/USP 20 Primeiras redes Neognitron, 1980 Linsker rede neural com conexões laterais, 1986 MLP com várias camadas, 1989 Neural history compressor, 1983 SOFT-GSN, 1984 Principais RNs profundas Redes credais profundas (RCP) Redes autocodificadoras empilhadas (RAE) Redes neurais convolucionais (RNC) Redes neurais profundas (RNP) André de Carvalho - ICMC/USP 21 André de Carvalho - ICMC/USP 22 Redes neurais profundas Redes com mais de uma camada intermediária Em geral, completamente interconectadas Geralmente, as camadas intermediárias (ou parte delas) são pré-treinadas Depois, utilizam backpropagation nas camadas finais Ou em toda a rede André de Carvalho - ICMC/USP 23 Redes autocodificadoras Uma das razões para o ressurgimento do interesse em RNAS Rede MLP em que: Número de neurônios da camada de saída = número de entradas Uma camada intermediária com muito menos neurônios que a camada de saída Treinamento ensina a rede a responder com um vetor de saída igual ao vetor de entrada Criadas na década de 1980 André de Carvalho - ICMC/USP 24 4

Redes autocodificadoras Rede aprende a codificar a entrada usando poucos bits Camada de saída funciona como decodificador para o tamanho original Quanto menos neurônios na camada intermediária, menor o tamanho do código Semelhante a programas de compressão de arquivos, mas a rede aprende como comprimir Rede autocodificadora Entrada Características Saída André de Carvalho - ICMC/USP 25 André de Carvalho - ICMC/USP 26 Redes autocodificadoras Poucos neurônios na camada intermediária dificultavam aprendizado Tinham que codificar uma grande quantidade de informação em poucos bits Saíram de moda Cerca de uma década depois uma nova proposta: Usar uma camada intermediária maior que as camadas de entrada e de saída André de Carvalho - ICMC/USP 27 Redes autocodificadoras esparsas Cada ajuste dos pesos ignora a maioria dos neurônios da camada intermediária Camada escondida não copia entrada Aprendizado de torna bem mais fácil Mais adiante, foi proposto o uso de várias camadas codificadoras Redes autocodificadoras empilhadas André de Carvalho - ICMC/USP 28 Rede autocodificadora empilhada Empilha autodecodificadores esparsos Camada escondida do primeiro autodecodificador, se torna entrada e saída do segundo Camada escondida do segundo, se torna entrada e saída do terceiro Cada camada intermediária aprende uma representação mais sofisticada da entrada Camada intermediária anterior André de Carvalho - ICMC/USP 29 Rede autocodificadora empilhada Treina autodecodificadores sequencialmente Abordagem gulosa de treinemnto Altera camada de entrada e de saída a cada vez Entrada Carac1 Entrada Carac1 Carac2 Catac1 Carac2 Saída André de Carvalho - ICMC/USP 30 5

Rede autocodificadora empilhada Última camada da (camada de saída) Classificador softmax Generalização da função logística Transforma um vetor com k valores reais em k valores (00,10] cuja soma = 1 Treinamento Indução de classificador Treina última camada (ou toda a rede) com backpropagation RNs convolucionais ConvNets ou CNN Propostas para visão computacional Procuram padrões visuais utilizando os pixels das imagens Robustas a distorções e transformações geométricas Semelhante a rede neocognitron, proposta na década de 80 André de Carvalho - ICMC/USP 31 André de Carvalho - ICMC/USP 32 RNs convolucionais Convolução Utilizam camadas para convolução de uma imagem Camadas de convolução aplicam transformações a pixels de uma imagem de entrada Compostas por dois estágios Sequência de pares de camadas Camada convolucional Extrai mapas de características de uma imagem usando filtros Camada de amostragem (pooling) Mantém apenas as informações mais relevantes dos mapas Rede MLP convencional André de Carvalho - ICMC/USP 33 1 1 0 0 0 1 1 1 0 1 1 0 0 0 1 1 Imagem Operação matemática para filtragem 1 1 Kernel Produto interno 0 1 = 1x1+1x1+0x0+1x1 1x0+1x0+0x1+1x1 1x0+1x1+0x0+1x0 = 3 1 1 2 1x1+1x0+0x1+1x1 André de Carvalho - ICMC/USP 34 RNs convolucionais Camada de convolução vetor de entrada Camada de amostragem Rede MLP André de Carvalho - ICMC/USP 35 Redes credais profundas Modelos probabilísticos Treinamento guloso camada a camada Primeiras camadas recebem conexão top down da camada seguinte Cada camada é uma Máquina de Boltzman restrita Duas últimas camadas têm conexões bidirecionadas Com pesos simétricos entre elas André de Carvalho - ICMC/USP 36 6

Conclusão Perguntas Introdução Redes profundas Aprendizado profundo Redes autodecodificadoras Redes convolucionais André de Carvalho - ICMC/USP 37 André de Carvalho - ICMC/USP 38 7