Exame de Aprendizagem Automática

Documentos relacionados
Exame de Aprendizagem Automática

1 o Teste de Aprendizagem Automática

2 o Teste de Aprendizagem Automática

INF 1771 Inteligência Artificial

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Uma Introdução a SVM Support Vector Machines. Obs: Baseada nos slides de Martin Law

1 o Teste de Aprendizagem Automática

SUPPORT VECTOR MACHINE - SVM

Aprendizado de Máquina (Machine Learning)

Inteligência Artificial

Teoria do aprendizado

INF 1771 Inteligência Artificial

Classificadores Lineares

Reconhecimento de Padrões. Reconhecimento de Padrões

Thiago Zavaschi Orientador: Alessandro Koerich Programa de Pós-Graduação em Informática (PPGIa) Pontifícia Universidade

Redes Neurais (Inteligência Artificial)

Sistemas de Apoio à Decisão. Guia de Exercícios

Aprendizado de Máquina (Machine Learning)

à Análise de Padrões

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Processamento digital de imagens

Aprendizado Bayesiano

Aprendizado de Máquina (Machine Learning)

índice 2. Vetores e Tipos Primitivos PARTE 1- O Sistema R 1. Introdução ao Sistema R

2. Redes Neurais Artificiais

MCZA Processamento de Linguagem Natural Classificação de textos

Tutorial CRISP-DM. Conteúdo. 2. Entendimento dos Dados. 1. Entendimento do Negócio. Objetivo; Descrição.

scikit-learn: Aprendizado de máquina 101 com Python

Aprendizado de Máquina (Machine Learning)

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33

Naïve Bayesian Learning. Marcílo Souto DIMAp/UFRN

Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas

Aprendizagem de Máquina

Classificação: 1R e Naïve Bayes. Eduardo Raul Hruschka

Métodos para Classificação: - Naïve Bayes.

2284-ELE/5, 3316-IE/3

Aula 1: k-nearest Neighbors

Novas Tecnologias de Informação Licenciatura em Estatística e Gestão de Informação. Escolha uma e uma só resposta para cada uma das seguintes questões

Curso Profissional de Nível Secundário

Máquinas de Vetores de Suporte - Support Vector Machines (SVM) Germano Vasconcelos

Aprendizagem de Máquina. Prof. Júlio Cesar Nievola PPGIA - PUCPR

Aprendizagem de Máquina

ESCOLA SECUNDÁRIA DE LOUSADA

Rafael Izbicki 1 / 38

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais

Classificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka

ANÁLISE DE BIG DATA VIA MACHINE LEARNING E INTELIGÊNCIA ARTIFICIAL

Classificação. Eduardo Raul Hruschka

Aprendizado de Máquina

Laboratório Classificação com o WEKA Explorer

Laboratório Como usar algoritmos de aprendizado de máquina de regressão em Weka

Máquinas de Vetores de Suporte

Combinação de Classificadores (fusão)

Aprendizagem de Máquina - 2. Prof. Júlio Cesar Nievola PPGIa - PUCPR

Professora: Susana Costa

ESTATÍSTICA MULTIVARIADA 2º SEMESTRE 2010 / 11. EXERCÍCIOS PRÁTICOS - CADERNO 6 Análise Discriminante

Aprendizagem Bayesiana

Aprendizado de Máquinas. Introdução à Aprendizado Não- Supervisionado

1 Classificadores Bayseanos Simples

θ depende de um parâmetro desconhecido θ.

ANÁLISE DE BIG DATA E INTELIGÊNCIA ARTIFICIAL PARA A ÁREA MÉDICA

Aula 3 Representação do Conhecimento

MATRIZ DA PROVA DE EXAME

Arvores de decisão. O que é uma árvore de decisão? Cap.6 Árvores de Decisão V 3.0, V.Lobo, EN/ISEGI, Victor Lobo

Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si

Inteligência nos Negócios (Business Inteligente)

CC-226 Aula 07 - Estimação de Parâmetros

Técnicas computacionais em probabilidade e estatística II

Optimização. Carlos Balsa. Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança

Aprendizado de Máquina

Aprendizado de Máquinas. Classificadores Lineares

Determinação de vícios refrativos oculares utilizando Support Vector Machines

Descoberta de Conhecimento em Bancos de Dados - KDD

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Aprendizado de Máquina

T6.1 Reconhecimento de Padrões

INSTITUTO SUPERIOR TÉCNICO LEFT LEBL LQ LEAM LEMAT Ano Lectivo: 2006/2007 Semestre: 2 o

Aprendizado Bayesiano Anteriormente...

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares

p( y θ ) depende de um parâmetro desconhecido θ.

RECONHECIMENTO DE PADRÕES - RP

Discriminação e Classificação

Introdução à Mineração de Dados com Aplicações em Ciências Espaciais

Máquinas de suporte vetorial e sua aplicação na detecção de spam

Método para Classificação: - Naïve Bayes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Aprendizado de Máquina

Aprendizado Bayesiano

Rede RBF (Radial Basis Function)

Classificação supervisionada baseada em árvore geradora mínima

WEKA: Prática Carregando a base de dados no Weka

Redes Neurais Artificiais

Categorização de Textos Usando Máquinas de Suporte Vetorial

Lista 2 Sistemas Inteligentes (INE5633) 2014s2

Classificação Linear. André Tavares da Silva.

Transcrição:

Exame de Aprendizagem Automática 2 páginas com 12 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 12 de Janeiro de 2017 Nota: O exame está cotado para 40 valores. Os 20 valores das perguntas de 1 a 7 correspondem ao primeiro teste; os restantes ao segundo teste. A nota da componente teórico-prática será a média destas duas partes, usando para cada uma a melhor nota entre cada teste e a parte correspondente do exame. Primeira Parte (correspondente ao primeiro teste) Pergunta 1 [4 valores] Suponha que quer treinar um classificador com base num conjunto de exemplos previamente classificados. Tem vários modelos que pode usar. Descreva o que deve fazer para seleccionar o melhor modelo, instanciar o modelo seleccionado na melhor hipótese e obter uma estimativa não enviesada do erro verdadeiro dessa hipótese final. Pergunta 2 [2 valores] Numa regressão polinomial, a melhor hipótese é encontrada minimizando o erro quadrático entre os valores conhecidos e os valores previstos. Explique a razão deste método: porquê minimizar o erro quadrático? Pergunta 3 [2 valores] Explique porque é que o classificador K-Nearest Neighbours é considerado preguiçoso (lazy), apontando os aspectos relevantes do algoritmo. Pergunta 4 [2 valores] Explique porque é que o classificador Naïve Bayes é considerado generativo, apontando os aspectos relevantes do algoritmo. Pergunta 5 [2 valores] Explique o que é a regularização e descreva um exemplo de como se usa a regularização num destes casos (à sua escolha): regressão polinomial, regressão logística, máquina de vectores de suporte, redes neuronais. Pergunta 6 [2 valores] O classificador de Bayes completo (Bayes Classifier) não assume independência condicional dos atributos dada a classe. O que, geralmente, seria mais correcto porque normalmente os atributos não são independentes, mesmo dada a classe. Explique então qual é a vantagem de usar um classificador Naïve Bayes, que assume que os atributos são condicionalmente independentes dada a classe. Pergunta 7 [6 valores] Suponha que tem um conjunto de exemplos com dois atributos contínuos, x 1 e x 2, classificados em duas classes, 0 e 1, e suponha que estas classes não são linearmente separáveis. Explique, para cada tipo de classificador abaixo, como se resolve o problema das classes não serem linearmente separáveis: 7.a) Regressão logística (logistic regression). 7.b) Máquina de vectores de suporte (support vector machine). 7.c) Rede neuronal.

2 Segunda Parte (correspondente ao segundo teste) Pergunta 8 [4 valores] A inequação abaixo estima o limite superior para o erro verdadeiro E da hipótese ĥ que minimiza o erro de treino Ê em função de δ, do tamanho do conjunto de treino m e da dimensão Vapnik-Chervonenkis da classe de hipóteses, V C(H), com probabilidade 1 δ. ( ) E(ĥ) Ê(ĥ) + O V C(H) m ln m V C(H) + 1 m ln 1 δ Recorrendo a esta inequação, explique: 8.a) Porque é que aumentar o poder para classificar correctamente os exemplos do conjunto de treino pode aumentar o erro verdadeiro da hipótese obtida. 8.b) Porque é que usar modelos demasiado simples pode aumentar o erro verdadeiro da hipótese obtida. 8.c) Porque é que há vantagem em usar conjuntos de treino maiores. Pergunta 9 [4 valores] Suponha que tem um conjunto de exemplos em que cada exemplo é descrito por 5 atributos numéricos contínuos. 9.a) Explique um método para visualizar este conjunto de exemplos. 9.b) Explique uma forma de seleccionar os 2 melhores atributos para treinar um classificador assumindo que sabe também a classe de cada exemplo. Pergunta 10 [8 valores] Indique, justificando a resposta, o algoritmo de clustering e, caso seja relevante, os parâmetros que utilizaria nos seguintes casos: 10.a) Tem um conjunto de 100 exemplos que quer organizar numa árvore binária com 4 níveis. Em cada nível excepto o último, cada grupo tem dois sub-grupos no nível imediatamente abaixo. 10.b) Tem um conjunto com 300 exemplos, cada um com dois atributos numéricos contínuos, e quer agrupá-los nas regiões de maior densidade, descartando os pontos isolados em regiões de baixa densidade. 10.c) Tem um conjunto com 200 exemplos, cada um com dois atributos numéricos contínuos, e suspeita que cada ponto surgiu de uma de quatro distribuições aleatórias gaussianas, cada uma com a sua média e matriz de covariância. 10.d) Tem um conjunto com 500 exemplos obtidos de uma distribuição tridimensional contínua e quer representar essa distribuição com apenas 20 combinações de valores dos 3 atributos. Pergunta 11 [2 valores] Alguns algoritmos de clustering dependem de uma medida de linkage. Explique o que é essa medida e dê um exemplo de uma medida de linkage. Pergunta 12 [2 valores] Explique porque é que é mais difícil treinar redes neuronais artificiais profundas do que redes neuronais artificias com poucas camadas.

1) Primeira parte 2) 3) 4) 5) 6)

7 a) 7 b) 7 c) 8 a) Segunda Parte 8 b) 8 c) 9 a) 9 b) na próxima folha

9 b) 10 a) 10 b) 10 c) 10 d) 11 12