Aprendizado de Máquina
|
|
|
- Marco Correia Natal
- 7 Há anos
- Visualizações:
Transcrição
1 Classificação Aprendizado de Máquina Aula Dados: A descrição de uma instância, x X, onde X é um espaço de instâncias. Um conjunto fixo de classes: C={c, c, c n } Determine: A classe de x: c(x) C, onde c(x) é uma função de classificação cujo domínio é X e cuja imagem é C. Se c(x) é uma função binária C={0,} ({verdadeiro,falso}, {, }) então é chamada de conceito. Aula - /0/0 Aula - /0/0 Aprendizado para Classificação Um exemplo de treinamento é uma instância x X, com sua classe correta c(x): <x, c(x)> para uma função de classificação desconhecida, c. Dado um conjunto de exemplos de treinamento, D. Encontre uma função de classificação hipotética, h(x), tal que: < x, c( x) > D : h( x) = c( x) Consistência Aula - /0/0 Exemplo Espaço de instâncias: <tamanho, cor, forma> tamanho {, médio, } cor {,, verde} forma {quadrado,, triângulo} C = {, } D: Exemplo Tamanho Cor triângulo Aula - /0/0 Seleção de Hipóteses Muitas hipóteses são normalmente consistentes com os dados de treinamento. & ( & ) ou ( & ) ( & & ) ou ( & & ) não [ ( & triângulo) ou ( & ) ] não [ ( & & triângulo) ou ( & & ) ] Viés ( bias ) Qualquer critério além de consistência com os dados de treinamento que é usado para selecionar uma hipótese. Generalização Hipóteses têm que generalizar pra classificar instâncias que não estejam nos dados de treinamento. Simplesmente memorizar os exemplos de treinamento é uma hipótese consistente que não generaliza. Lâmina de Occam: Encontrar uma hipótese simples ajuda na generalização. Aula - /0/0 Aula - /0/0 6
2 Espaço de Hipóteses Restringir as funções a serem aprendidas a um espaço de hipóteses, H, de funções h(x) que serão consideradas para definir c(x). Para conceitos sobre instâncias descritas por n características discretas, considere o espaço de hipóteses conjuntivas representadas por um vetor de n restrições <c, c, c n > onde cada c i pode ser:?, indica que não há restrição para a i-ésima característica Um valor específico do domínio da i-ésima característica Ø, indicando que nenhum valor é aceitável Exemplos de hipóteses conjuntivas: <,,?> <?,?,?> (hipótese mais geral) <Ø, Ø, Ø> (hipótese mais específica) Suposições do Aprendizado Indutivo Qualquer função que aproxima o conceito alvo bem num conjunto suficientemente de exemplos de treinamento também irá aproximar o conceito bem para exemplos que não foram observados. Supõe que os exemplos de treinamento e teste foram obtidos independentemente a partir da mesma distribuição. Essa é uma hipótese que não pode ser provada a não ser que suposições adicionais sejam feitas sobre o conceito alvo e a noção de aproximar o conceito bem para exemplos não-observados seja definida de forma apropriada. Aula - /0/0 7 Aula - /0/0 8 Avaliação do Aprendizado de Classificação Acurácia da classificação (% de instâncias classificadas corretamente). Medida em dados de teste. Tempo de treinamento (eficiência do algoritmo de aprendizado). Tempo de teste (eficiência da classificação). Aprendizado de classificação visto como busca O aprendizado pode ser visto como uma busca no espaço de hipóteses por uma (ou mais) hipóteses que sejam consistentes com os dados de treinamento. Considere um espaço de instâncias consistindo de n características binárias que tem portanto n instâncias. Para hipóteses conjuntivas, há escolhas para cada característica: Ø, T, F,?, então há n hipóteses sintaticamente distintas. Porém, todas as hipóteses com ou mais Øs são equivalentes, então há n + hipóteses semanticamente distintas. A função de classificação binária alvo em princípio poderia qualquer uma de ^n funções de n bits de entrada. Logo, hipóteses conjuntivas são um subconjunto do espaço de possíveis funções, mas ambos são muito s. Todos os espaços de hipótese razoáveis são muito s ou até infinitos. Aula - /0/0 9 Aula - /0/0 0 Aprendizado por Enumeração Para qualquer espaço de hipóteses finito ou infinito contável, podemos simplesmente enumerar e testar hipóteses uma de cada vez até que uma consistente seja encontrada. Para cada h em H faça: Se h é consistente com os dados de treinamento D, então termine e retorne h. Este algoritmo tem garantia de encontrar uma hipótese consistente se ela existir; porém é obviamente computacionalmente intratável para a maioria dos problemas práticos. Aprendizado Eficiente Existe uma maneira de aprender conceitos conjuntivos sem enumerá-los? Como humanos aprendem conceitos conjuntivos? Existe uma maneira eficiente de encontrar uma função booleana não-restrita consistente com um conjunto de exemplos com atributos discretos? Se existir é um algoritmo útil na prática? Aula - /0/0 Aula - /0/0
3 Aprendizado de Regras Conjuntivas Descrições conjuntivas podem ser aprendidas olhando as características comuns dos exemplos s. Exemplo Tamanho Cor triângulo Regra aprendida: & É necessário checar consistência com exemplos s. Se for inconsistente, não existe regra conjuntiva. Aula - /0/0 Limitações de Regras Conjuntivas Se o conceito não tiver um único conjunto de condições necessárias e suficientes, o aprendizado falha. Exemplo Tamanho Cor médio triângulo Regra aprendida: & Inconsistente com exemplo #! Aula - /0/0 Conceitos disjuntivos Conceitos podem ser disjuntivos. Exemplo Tamanho médio Cor triângulo Regras aprendidas: & & Aula - /0/0 Usando a estrutura de generalidade Explorando a estrutura imposta pela generalidade das hipóteses, pode-se fazer a busca no espaço de hipóteses sem enumerar cada hipótese. Uma instância, x X, satisfaz uma hipótese, h, se e somente se h(x)= () Dadas duas hipóteses h e h, h é mais geral ou igual a h (h h ) se e somente se cada instância que satisfaz h também satisfaz h. Dadas duas hipóteses h e h, h é (estritamente) mais geral que h (h >h ) se e somente se h h e não h h. Generalidade define uma ordem parcial das hipóteses. Aula - /0/0 6 Exemplos de Generalidade Vetores de característica conjuntivos <?,,?> é mais geral que <?,, > <?, red,?> e <?,?, circle> não são mais gerais um do que o outro. Retângulo com eixos paralelos no espaço -d: Exemplo de látice de generalização Size: {sm, big} Color: {red, blue} Shape: {circ, squr} <?,?,?> <?,?,circ> <big,?,?> <?,red,?> <?,blue,?> <sm,?,?> <?,?,squr> A B C <?,red,circ><big,?,circ>< big,?><blue,?><sm,?,circ><?,blue,circ> <?,red,squr><sm.?,sqr><sm,red,?><sm,blue,?><big,?,squr><?,blue,squr> < big,verm,circ><peq,red,circ><big,blue,circ><sm,blue,circ>< big,red,squr><sm,red,squr><big,blue,squr><sm,blue,squr> A é mais geral que B Nem A nem C são mais gerais um do que o outro Aula - /0/0 7 < Ø, Ø, Ø> Número de hipóteses = + = 8 Aula - /0/0 8
4 Aprendizado Mais Específico (Encontre-S) Encontra a hipótese mais específica que seja consistente com os dados de treinamento (chamada de LGG = Least General Generalization). Atualiza a hipótese depois de examinar cada exemplo, generalizando-a somente o suficiente para satisfazer o exemplo. Para vetores de características conjuntivas: Inicialize h = <Ø, Ø, Ø> Para cada instância de treinamento positiva x em D Para cada característica f i Se a restrição de f i em h não for satisfeita por x Se f i em h é Ø então faça f i em h ter o valor de f i em x senão faça f i em h ser? Se h for consistente com as instâncias de treinamento em D então retorne h senão não existe hipótese consistente Complexidade: O( D n) onde n é o número de características Aula - /0/0 9 Propriedades de Encontre-S Para vetores de características conjuntivas, a hipótese mais específica é única e será encontrada por Encontre-S. Se a hipótese mais específica não for consistente com os exemplos s, então não há função consistente no espaço de hipóteses, já que, por definição, ela não poder ser mais específica e manter consistência com os exemplos s. Para vetores de características conjuntivas, se a hipótese mais específica for inconsistente, então o conceito alvo deve ser disjuntivo. Aula - /0/0 0 Outro espaço de hipóteses Considere o caso de dois objetos (sem ordem) descritos por um conjunto fixo de atributos. {<,, >, <,, quadrado>} Qual é a generalização mais específica de: Positivo: {<,, triângulo>, <,, >} Positivo: {<,, >, <,, triângulo>} LGG não é única, duas generalizações não comparáveis são: {<,?,?>, <,?,?>} {<?,, triângulo>, <?,, >} Para esse espaço, Encontre-S teria que manter um conjunto continuamente crescente de LGGs e eliminar aquelas que cobrem exemplos s. Encontre-S não é tratável para esse espaço já que o número de LGGs pode crescer exponencialmente. Aula - /0/0 Problemas da Encontre-S Dados exemplos de treinamento suficientes, Encontre-S converge para uma definição correta do conceito alvo (supondo que ele está no espaço de hipóteses)? Como sabemos que houve convergência para a hipótese correta? Por que preferir a hipótese mais específica? Existem hipóteses mais gerais que sejam consistentes? E a hipótese mais geral? E a hipótese de treinamento? Se as LGGs não são únicas Qual LGG deve ser escolhida? Como uma única LGG consistente pode ser eficientemente calculada? E se houver ruído nos dados de treinamento e alguns exemplos estiverem com a classe errada? Aula - /0/0 Efeito do Ruído Frequentemente dados de treinamento reais têm erros (ruído) nas características ou classes. O ruído pode fazer com que generalizações válidas não sejam encontradas. Por exemplo, imagine que há muitos exemplos s como # e #, mas somente um exemplo como o # que na verdade resultou de um erro de classificação. Exemplo Tamanho Cor médio triângulo Aula - /0/0 Espaço de Versões Dado um espaço de hipóteses, H, e dados de treinamento, D, o espaço de versões é o subconjunto completo de H que é consistente com D. O espaço de versões pode ser gerado de forma ingênua para qualquer H finito através da enumeração de todas as hipóteses e eliminando as inconsistentes. O espaço de versões pode ser calculado de forma mais eficiente do que com enumerações? Aula - /0/0
5 Espaço de versões com S e G O espaço de versões pode ser representado de forma mais compacta mantendo-se dois conjuntos de hipóteses: S, o conjunto de hipóteses mais específicas consistentes, e G, o conjunto de hipóteses mais gerais consistentes: S = { s H Consistent( s, D) s H[ s > s Consistent( s, D)]} G = { g H Consistent( g, D) g H[ g > g Consistent( s, D)]} S e G representam o espaço de versão inteiro através de seus limites na látice de generalização: Espaço de Versões G S Aula - /0/0 Látice do Espaço de Versões Size: {sm, big} Color: {red, blue} Shape: {circ, squr} <?,?,?> <?,?,circ> <big,?,?> <?,red,?> <?,blue,?> <sm,?,?> <?,?,squr> <?,red,circ><big,?,circ><big,red,?><big,blue,?><sm,?,circ><?,blue,circ> <?,red,squr><sm.?,sqr><sm,red,?><sm,blue,?><big,?,squr><?,blue,squr> < big,red,circ><sm,red,circ><big,blue,circ><sm,blue,circ>< big,red,squr><sm,red,squr><big,blue,squr><sm,blue,squr> < Ø, Ø, Ø> Color Code: G S other VS <<big, red, squr> positive> <<sm, blue, circ> negative> Aula - /0/0 6 Algoritmo de Eliminação de Candidatos (Espaço de Versões) Inicialize G como o conjunto de hipóteses mais gerais em H Inicialize S como o conjunto de hipóteses mais específicas em H Para cada exemplo de treinamento, d, faça: Se d for um exemplo então: Remova de G qualquer hipótese que não esteja de acordo com d Para cada hipótese s em S que não estão de acordo com d Remova s de S Adicione a S todas as generalizações mínimas, h, de s tais que: ) h está de acordo com d ) alguns membros de G são mais gerais que h Remover de S qualquer h que seja mais geral do que qualquer outra hipótese S Se d for um exemplo então: Remova de S qualquer hipótese de acordo d Para cada hipótese g em G qu está de acordo com d Remova g fde G Adicione a G todas as especializações mínimas, h, de g tais que: ) h não está de acordo com d ) algum membro de S é mais especfico que h Remova de G qualquer h qje seja mais específico que qualuer outra hipótese.em G Aula - /0/0 7 Sub-rotinas necessárias Colocar o algoritmo em uma linguagem específica requer implementar os seguintes procedimentos: Hipóteses-igual(h, h ) Mais geral(h, h ) match(h, i) inicialize-g() inicialize-s() generalizar (h, i) especializar(h, i) Aula - /0/0 8 Especialização e Generalização Mínimas Os procedimentos de generalização e especialização são específicos para uma linguagem de hipóteses e podem ser complexos. Para vetores de características conjuntivos: generalização: única, veja Encontre-S especialização: não é única, podemos converter cada? pra valores diferentes.. Inputs: h = <?, red,?> i = <small, red, triangle> Outputs: <big, red,?> <medium, red,?> <?, red, square> Exemplo VS Trace S= {< Ø, Ø, Ø>}; G= {<?,?,?>} Positivo: <big, red, circle> Nada a remover de G Generalização mínima de cada elemento de S é <big, red, circle> que é mais específico do que G. S={<big, red, circle>}; G={<?,?,?>} Negativo: <small, red, triangle> Nada a remover de S. Especializações mínimas de <?,?,?> são <medium,?,?>, <big,?,?>, <?, blue,?>, <?, green,?>, <?,?, circle>, <?,?, square> mas a maioria é mais geral do que algum elemento de S S={<big, red, circle>}; G={<big,?,?>, <?,?, circle>} <?, red, circle> Aula - /0/0 9 Aula - /0/0 0
6 Exemplo VS Trace (cont) S={<big, red, circle>}; G={<big,?,?>, <?,?, circle>} Positivo: <small, red, circle> Remova <big,?,?> de G Generalização mínima de <big, red, circle> é <?, red, circle> S={<?, red, circle>}; G={<?,?, circle>} Negativo: <big, blue, circle> Nada a remover de S Especializações mínimas de <?,?, circle> são <small,? circle>, <medium,?, circle>, <?, red, circle>, <?, green, circle> mas a maioria não é mais genérica que alguns elementos de S. S={<?, red, circle>}; G={<?, red, circle>} S=G; Convergência Aula - /0/0 Propriedades do Algoritmo VS S resume a informação relevante dos exemplos s (relativo a H) de tal forma que eles não precisem ser mantidos. G resume a informação relevante dos exemplos s, de tal forma que eles não precisem ser mantidos. O resultado não é afetado pela ordem dos exemplos, mas a eficiência computacional pode ser afetada pela ordem. Se S e G convergirem para a mesma hipótese, então ela é a única que é consistente com os dados em H. Se S e G ficam vazios então não há nenhuma hipótese em H que seja consistente com os dados. Aula - /0/0 Exemplo: Weka VS Trace java weka.classifiers.vspace.conjunctiveversionspace -t figure.arff -T figure.arff -v -P Instance: small,red,square,negative G = [[big,?,?], [?,?,circle]] G = [[?,?,circle]] Instance: big,blue,circle,negative G = [[?,red,circle]] Version Space converged to a single hypothesis. Aula - /0/0 Exemplo: Weka VS Trace java weka.classifiers.vspace.conjunctiveversionspace -t figure.arff -T figure.arff -v -P Instance: small,blue,triangle,negative G = [[big,?,?], [?,red,?], [?,?,circle]] G = [[?,red,?], [?,?,circle]] Instance: medium,green,square,negative G = [[?,red,?], [?,?,circle]] Aula - /0/0 Exemplo: Weka VS Trace Exemplo: Weka VS Trace java weka.classifiers.vspace.conjunctiveversionspace -t figure.arff -T figure.arff -v -P Instance: small,red,triangle,negative G = [[big,?,?], [?,?,circle]] G = [[?,?,circle]] Instance: big,blue,circle,negative G = [[?,red,circle]] Version Space converged to a single hypothesis. Instance: small,green,circle,positive S = [] G = [] java weka.classifiers.vspace.conjunctiveversionspace -t figure.arff -T figure.arff -v -P Instance: small,red,square,negative G = [[medium,?,?], [big,?,?], [?,blue,?], [?,green,?], [?,?,circle], [?,?,triangle]] Instance: big,blue,circle,negative G = [[medium,?,?], [?,green,?], [?,?,triangle], [big,red,?], [big,?,square], [small,blue,?], [?,blue,square], [small,?,circle], [?,red,circle]] G = [[big,red,?], [?,red,circle]] G = [[?,red,circle]] Language is insufficient to describe the Aula concept. - /0/0 Version Space converged to a single hypothesis. Aula - /0/0 6 6
7 Corretude do Aprendizado Como o espaço de versões inteiro é mantido, dado um fluxo contínuo de exemplos de treinamento sem ruído, o algoritmo VS algorithm vai convergir para o conceito correto se ele estiver no espaço de hipóteses, H, ou determinará que ele não está em H. A convergência é sinalizada quando S=G. Complexidade Computacional do VS Calcular o conjunto S de vetores de características conjuntivos é linear em relação ao número de características e exemplos de treinamento. Calcular o conjunto G de vetores de características conjuntivos é exponencial em relação ao número de exemplos de treinamento no pior caso. Com linguagens mais expressivas, tanto S quanto G podem crescer exponencialmente. A ordem em que os exemplos são processados pode afetar significativamente a complexidade computacional. Aula - /0/0 7 Aula - /0/0 8 7
Aprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) ÁRVORES DE DECISÃO Plano de Aula Introdução Representação de Árvores
Inteligência Artificial. Raimundo Osvaldo Vieira [DComp IFMA Campus Monte Castelo]
Inteligência Artificial Raimundo Osvaldo Vieira [DComp IFMA Campus Monte Castelo] Aprendizagem de Máquina Área da Inteligência Artificial cujo objetivo é o desenvolvimento de técnicas computacionais sobre
Aprendizagem de Máquina
Plano de Aula Aprendizagem de Máquina Aprendizagem de Árvores de Decisão Aula 3 Alessandro L. Koerich Introdução Representação de Árvores de Decisão Algoritmo de Aprendizagem ID3 Entropia e Ganho de Informação
Lógica Proposicional
Lógica Proposicional Lógica Computacional Carlos Bacelar Almeida Departmento de Informática Universidade do Minho 2007/2008 Carlos Bacelar Almeida, DIUM LÓGICA PROPOSICIONAL- LÓGICA COMPUTACIONAL 1/28
PROBABILIDADE E ESTATÍSTICA. Profa. Dra. Yara de Souza Tadano
PROBABILIDADE E ESTATÍSTICA Profa. Dra. Yara de Souza Tadano [email protected] Aula 7 11/2014 Variáveis Aleatórias Variáveis Aleatórias Probabilidade e Estatística 3/41 Variáveis Aleatórias Colete
Fundamentos de Lógica e Algoritmos. Aula 2.3 Introdução a Algoritmos. Prof. Dr. Bruno Moreno
Fundamentos de Lógica e Algoritmos Aula 2.3 Introdução a Algoritmos Prof. Dr. Bruno Moreno [email protected] Fundamentos de Lógica e Algoritmos Aula 2.3 Introdução a Algoritmos Prof. Dr. Bruno Moreno
Uma Introdução a SVM Support Vector Machines. Obs: Baseada nos slides de Martin Law
Uma Introdução a SVM Support Vector Machines Obs: Baseada nos slides de Martin Law Sumário Historia das SVMs Duas classes, linearmente separáveis O que é um bom limite para a decisão? Duas classes, não
3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
I.2 Introdução a Teoria da Computação
I.2 Introdução a Teoria da Computação O que é? Fundamento da Ciência da Computação Tratamento Matemático da Ciência da Computação Estudo Matemático da Transformação da Informação Qual sua importância?
Aprendizado de Máquinas
Aprendizado de Máquinas Objetivo A área de aprendizado de máquina preocupa-se em construir programas que automaticamente melhorem seu desempenho com a experiência. Conceito AM estuda métodos computacionais
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
Teoria do consumidor. Propriedades do Conjunto Consumo,
Teoria do consumidor 1 Pedro Rafael Lopes Fernandes Qualquer modelo que vise explicar a escolha do consumidor é sustentado por quatro pilares. Estes são o conjunto consumo, o conjunto factível, a relação
Aula 10: Tratabilidade
Teoria da Computação DAINF-UTFPR Aula 10: Tratabilidade Prof. Ricardo Dutra da Silva Na aula anterior discutimos problemas que podem e que não podem ser computados. Nesta aula vamos considerar apenas problemas
Tabelas Hash. informação, a partir do conhecimento de sua chave. Hashing é uma maneira de organizar dados que:
Tabelas Hash Tabelas Hash O uso de listas ou árvores para organizar informações é interessante e produz bons resultados. Porem, em nenhuma dessas estruturas se obtém o acesso direto a alguma informação,
Figura 1. Tela de inicialização do WEKA. 2. Será apresentada a seguinte janela, que iremos utilizar para testar as respostas do WEKA.
WEKA: Prática 1 Nesta primeira prática vamos usar o Explorer, para treinar o WEKA e depois testarmos a eficiência das respostas de acordo com a base de conhecimento informada. 1. Iniciando o WEKA Explorer
Otimização da Paleta de Cores
Otimização da Paleta de Cores Resumo O objetivo deste artigo é apresentar a técnica de otimização da paleta de cores utilizada no MSX Viewer 5 para encontrar a melhor paleta de cores do MSX 2 e do v9990,
Reconhecimento de Padrões
Reconhecimento de Padrões André Tavares da Silva [email protected] Roteiro da aula Conceitos básicos sobre reconhecimento de padrões Visão geral sobre aprendizado no projeto de classificadores Seleção
PCC104 - Projeto e Análise de Algoritmos
PCC104 - Projeto e Análise de Algoritmos Marco Antonio M. Carvalho Departamento de Computação Instituto de Ciências Exatas e Biológicas Universidade Federal de Ouro Preto 7 de outubro de 2016 Marco Antonio
Complexidade de Algoritmos. Edson Prestes
Edson Prestes Exemplos Exemplos A complexidade no pior caso é linear e igual a n, ou seja, é O(n) A complexidade média é linear e igual a (1+n)/2, ou seja, é O(n) Exemplos Considere o produto C de uma
Aprendizado de Máquina
Aprendizado de Máquina Sistemas de Informação Inteligente Prof. Leandro C. Fernandes Adaptação dos materiais de: Thiago A. S. Pardo, Daniel Honorato e Bianca Zadrozny APRENDIZADO SIMBÓLICO: ÁRVORES DE
Aprendizado Bayesiano
Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado
Classificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka
Classificação: Árvores de Decisão e k-nn Eduardo Raul Hruschka Árvores de Decisão Métodos para aproximar funções discretas, representadas por meio de uma árvore de decisão; Árvores de decisão podem ser
Projeto e Análise de Algoritmos NP Completude. Prof. Humberto Brandão
Projeto e Análise de Algoritmos NP Completude Prof. Humberto Brandão [email protected] Universidade Federal de Alfenas versão da aula: 0.4 Introdução Problemas intratáveis ou difíceis são comuns
2 Erro comum da indução. 3 Corretude de Algoritmos. > Indução Forte X Indução Fraca Erro comum da indução Corretude de Algoritmos 0/17
Conteúdo 1 Indução Forte X Indução Fraca 2 Erro comum da indução 3 Corretude de Algoritmos > Indução Forte X Indução Fraca Erro comum da indução Corretude de Algoritmos 0/17 Indução Forte X Indução Fraca
Agentes de Procura Procura Estocástica. Capítulo 3: Costa, E. e Simões, A. (2008). Inteligência Artificial Fundamentos e Aplicações, 2.ª edição, FCA.
Agentes de Procura Procura Estocástica Capítulo 3: Costa, E. e Simões, A. (2008). Inteligência Artificial Fundamentos e Aplicações, 2.ª edição, FCA. AGENTES DE PROCURA ESTOCÁSTICA 1 Procura Aleatória O
Resolução de problemas com apenas restrições lineares de igualdade
Resolução de problemas com apenas restrições lineares de igualdade Marina Andretta ICMC-USP 14 de outubro de 2014 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 14 de outubro de 2014 1 / 22
INE5317 Linguagens Formais e Compiladores AULA 3: Introdução a Teoria da Computação
INE5317 Linguagens Formais e Compiladores AULA 3: Introdução a Teoria da Computação bas eado em material produzido pelo prof Olinto Jos é Varela Furtado Ricardo Azambuja Silveira INE-CTC-UFSC E-Mail: [email protected]
Complexidade de Algoritmos. Edson Prestes
Edson Prestes O limite superior de complexidade de um problema refere-se ao melhor algoritmo que o resolve. nlog 2 n é um limite superior para o problema de classificação. O limite inferior de um problema
Aula 10: Decidibilidade
Teoria da Computação Aula 10: Decidibilidade DAINF-UTFPR Prof. Ricardo Dutra da Silva Definição 10.1. Um problema de decisão P é um conjunto de questões para as quais as respostas são sim ou não. Exemplo
INF 1771 Inteligência Artificial
Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 15 Árvores de Decisão Árvores de Decisão Uma das formas de algoritmo de aprendizado mais simples e de maior sucesso.
Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Técnicas de Projeto de Algoritmos
UNIVERSIDADE NOVE DE JULHO - UNINOVE Pesquisa e Ordenação Técnicas de Projeto de Algoritmos Material disponível para download em: www.profvaniacristina.com Profa. Vânia Cristina de Souza Pereira 03 _ Material
Aprendizado de Máquina
Aprendizado de Máquina Template Matching Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://lesoliveira.net October 25, 2012 Luiz S. Oliveira (UFPR) Aprendizado
Árvores. Thiago Martins, Fabio Gagliardi Cozman. PMR2300 / PMR3201 Escola Politécnica da Universidade de São Paulo
PMR2300 / PMR3201 Escola Politécnica da Universidade de São Paulo Árvore: estrutura composta por nós e arestas entre nós. As arestas são direcionadas ( setas ) e: um nó (e apenas um) é a raiz; todo nó
Buscas Informadas ou Heurísticas - Parte II
Buscas Informadas ou Heurísticas - Parte II Prof. Cedric Luiz de Carvalho Instituto de Informática - UFG Graduação em Ciência da Computação / 2006 FUNÇÕES HEURÍSTICAS - 1/7 FUNÇÕES HEURÍSTICAS - 2/7 Solução
CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano
CÁLCULO NUMÉRICO Profa. Dra. Yara de Souza Tadano [email protected] Aula 7 04/2014 Zeros reais de funções Parte 1 Objetivo Determinar valores aproximados para as soluções (raízes) de equações da
Árvores de Decisão. Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Departamento de Ciências de Computação
Árvores de Decisão Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Departamento de Ciências de Computação Rodrigo Fernandes de Mello [email protected] Árvores de Decisão Método
Teoria da computabilidade Indecidíveis Decidíveis
Bacharelado em Ciência da Computação Disciplina: Algoritmos e Estruturas de Dados I Professor: Mário Luiz Rodrigues Oliveira Teoria da computabilidade Indecidíveis Decidíveis Teoria da complexidade Intratáveis:
Variáveis Aleatórias Discretas e Distribuição de Probabilidade
Variáveis Aleatórias Discretas e Distribuição de Probabilidades - parte III 08 de Abril de 2014 Distribuição Binomial Negativa Objetivos Ao final deste capítulo você deve ser capaz de: Ententer suposições
Nomes, Amarração, Verificação de Tipos, e Escopo
5 Nomes, Amarração, Verificação de Tipos, e Escopo Concepts of Programming Languages, 5/e Robert W. Sebesta Agenda Objetivo desta aula: Introduzir os principais aspectos semânticos de variáveis Palavras-chave
Otimização em Grafos
Otimização em Grafos Luidi G. Simonetti PESC/COPPE 2017 Luidi Simonetti (PESC) EEL857 2017 1 / 35 Teoria dos Grafos - Relembrando Árvore Um grafo G é uma árvore se é conexo e não possui ciclos (acíclico).
Potência e Energia de um sinal
otência e nergia de um sinal Fonte: www.gaussianwaves.com/03//power-and-energy-of-a-signal/ nergia de um sinal: Definindo o termo tamanho do sinal : o processamento de sinais, geralmente um sinal é visto
Estruturas de Dados I
Estruturas de Dados I Rodrigo Porfírio da Silva Sacchi [email protected] 3410-2075 Aula 6: Listas Encadeadas e Alocação Dinâmica Listas Encadeadas e Alocação Dinâmica Alocação Seqüencial versus
Cálculo Numérico Noções básicas sobre erros
Cálculo Numérico Noções básicas sobre erros Profa. Vanessa Rolnik 1º semestre 2015 Fases da resolução de problemas através de métodos numéricos Problema real Levantamento de Dados Construção do modelo
Cálculo Numérico Ponto Fixo
Cálculo Numérico Ponto Fixo Método do Ponto Fixo (MPF) Dada uma função f(x) contínua no intervalo [a,b] onde existe uma raiz única, f(x) = 0, é possível transformar tal equação em uma equação equivalente
Agregação de Algoritmos de Aprendizado de Máquina (AM) Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta
Agregação de Algoritmos de Aprendizado de Máquina (AM) Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta ([email protected]) Sumário 1. Motivação 2. Bagging 3. Random Forest 4. Boosting
Teoria da Complexidade Computacional
Teoria da Complexidade Computacional 25 de novembro de 2011 Enquanto a teoria de análise de algoritmos estuda a análise de complexidade de algoritmos, a teoria da complexidade estuda a classificação de
Aprendizado de Máquina
Aprendizado de Máquina André C. P. L. F. de Carvalho Posdoutorando: Isvani Frias-Blanco ICMC-USP Agrupamento de dados Tópicos Agrupamento de dados Dificuldades em agrupamento Algoritmos de agrupamento
Inteligência Artificial
Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial Aprendizagem Outras Técnicas Prof. a Joseana Macêdo Fechine Régis
Enumerabilidade. Capítulo 6
Capítulo 6 Enumerabilidade No capítulo anterior, vimos uma propriedade que distingue o corpo ordenado dos números racionais do corpo ordenado dos números reais: R é completo, enquanto Q não é. Neste novo
Equações não lineares
Capítulo 2 Equações não lineares Vamos estudar métodos numéricos para resolver o seguinte problema. Dada uma função f contínua, real e de uma variável, queremos encontrar uma solução x que satisfaça a
3. Resolução de problemas por meio de busca
Inteligência Artificial - IBM1024 3. Resolução de problemas por meio de busca Prof. Renato Tinós Local: Depto. de Computação e Matemática (FFCLRP/USP) 1 Principais Tópicos 3. Resolução de problemas por
Resolução de Sistemas Lineares. Ana Paula
Resolução de Sistemas Lineares Sumário 1 Introdução 2 Alguns Conceitos de Álgebra Linear 3 Sistemas Lineares 4 Métodos Computacionais 5 Sistemas Triangulares 6 Revisão Introdução Introdução Introdução
INTRATABILIDADE e NP-COMPLETUDE
INTRATABILIDADE e NP-COMPLETUDE Sandro Santos Andrade Doutorado Multiinstitucional em Ciência da Computação UFBA/UNIFACS/UEFS Junho/2008 Grafos e Análise de Algoritmos Introdução Para alguns problemas
Máquinas de suporte vetorial e sua aplicação na detecção de spam
e sua aplicação na detecção de spam Orientador: Paulo J. S. Silva (IME-USP) Universidade de São Paulo Instituto de Matemática e Estatística Departamento de Ciência da Computação MAC499 Trabalho de Formatura
1 Classificadores Bayseanos Simples
Aula 12 - Classificadores Bayseanos Curso de Data Mining Sandra de Amo Classificadores Bayseanos são classificadores estatísticos que classificam um objeto numa determinada classe baseando-se na probabilidade
UNIVERSIDADE FEDERAL RURAL DO SEMI-ÁRIDO CURSO: CIÊNCIA DA COMPUTAÇÃO. Prof.ª Danielle Casillo
UNIVERSIDADE FEDERAL RURAL DO SEMI-ÁRIDO CURSO: CIÊNCIA DA COMPUTAÇÃO TEORIA DA COMPUTAÇÃO Aula 03 Programas (Monolítico e Iterativo) Prof.ª Danielle Casillo Programas, Máquinas e Computações Diferentes
Aula 02: Custos de um algoritmo e funções de complexidade
MCTA028 Programação Estruturada Aula 02: Custos de um algoritmo e funções de complexidade Prof. Jesús P. Mena-Chalco [email protected] 3Q-20106 1 Linguagem C: Tipos de dados 2 Linguagem C: Tipos
Conceitos Básicos. Vocabulário Cadeias Linguagens Expressões Regulares Problema X Linguagem
Conceitos Básicos Vocabulário Cadeias Linguagens Expressões Regulares Problema X Linguagem Alfabeto ou Vocabulário: Conjunto finito não vazio de símbolos. Símbolo é um elemento qualquer de um alfabeto.
a complexidade no desempenho de algoritmos
capítulo 1 introdução Os algoritmos são o cerne da computação. Este capítulo introdutório procura ressaltar a importância da complexidade e dos métodos de projeto e análise de algoritmos. Partindo da ideia
Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:
Back Propagation Fatores importantes para a modelagem da Rede Neural: Seleção de variáveis; veis; Limpeza dos dados; Representação das variáveis veis de entrada e saída; Normalização; Buscando melhor Generalização
Algoritmo Genético. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Algoritmo Genético Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução 2. Conceitos Básicos 3. Aplicações 4. Algoritmo 5. Exemplo Introdução São técnicas de busca
Exemplo de Aplicação de Algoritmos Genéticos. Prof. Juan Moisés Mauricio Villanueva cear.ufpb.br/juan
Exemplo de Aplicação de Algoritmos Genéticos Prof. Juan Moisés Mauricio Villanueva [email protected] cear.ufpb.br/juan Estrutura do Algoritmo Genético Algoritmo genético Inicio t = 0 inicializar P(t)
sumário 1 introdução e conceitos básicos 1 2 noções de lógica e técnicas de demonstração introdução à matemática discreta...
sumário 1 introdução e conceitos básicos 1 1.1 introdução à matemática discreta... 2 1.2 conceitos básicos de teoria dos conjuntos... 3 1.2.1 conjuntos...3 1.2.2 pertinência...5 1.2.3 alguns conjuntos
Análise de complexidade
Introdução Algoritmo: sequência de instruções necessárias para a resolução de um problema bem formulado (passíveis de implementação em computador) Estratégia: especificar (definir propriedades) arquitectura
5COP096 TeoriadaComputação
Sylvio 1 Barbon Jr [email protected] 5COP096 TeoriadaComputação Aula 13 Prof. Dr. Sylvio Barbon Junior Sumário - Problemas NP-Completo Algoritmos Não-deterministas; Classes NP-Completo e NP-Dificil; Teorema
Matemática Discreta para Ciência da Computação
Matemática Discreta para Ciência da Computação P. Blauth Menezes [email protected] Departamento de Informática Teórica Instituto de Informática / UFRGS Matemática Discreta para Ciência da Computação
Um alfabeto é um conjunto de símbolos indivisíveis de qualquer natureza. Um alfabeto é geralmente denotado pela letra grega Σ.
Linguagens O conceito de linguagem engloba uma variedade de categorias distintas de linguagens: linguagens naturais, linguagens de programação, linguagens matemáticas, etc. Uma definição geral de linguagem
Método de restrições ativas para minimização em caixas
Método de restrições ativas para minimização em caixas Marina Andretta ICMC-USP 20 de outubro de 2014 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 20 de outubro de 2014 1 / 25 Problema com
INVESTIGANDO O PROBLEMA DA MOCHILA IRRESTRITA EM SUA VERSÃO BIDIMENSIONAL
INVESTIGANDO O PROBLEMA DA MOCHILA IRRESTRITA EM SUA VERSÃO BIDIMENSIONAL Mirella Augusta Sousa Moura, [email protected] Thiago Alves de Queiroz, th.al.qz@catalão.ufg.br Resumo: Empacotamento consiste
Busca com informação e exploração. Capítulo 4 Russell & Norvig Seção 4.2 e 4.3
Busca com informação e exploração Capítulo 4 Russell & Norvig Seção 4.2 e 4.3 1 Revisão da aula passada: Busca A * Idéia: evitar expandir caminhos que já são caros Função de avaliação f(n) = g(n) + h(n)
Estruturas de Dados, Análise de Algoritmos e Complexidade Estrutural. Carlos Alberto Alonso Sanches
CT-234 Estruturas de Dados, Análise de Algoritmos e Complexidade Estrutural Carlos Alberto Alonso Sanches CT-234 2) Algoritmos recursivos Indução matemática, recursão, recorrências Indução matemática Uma
SUMÁRIO. Fundamentos Árvores Binárias Árvores Binárias de Busca
ÁRVORES SUMÁRIO Fundamentos Árvores Binárias Árvores Binárias de Busca 2 ÁRVORES Utilizadas em muitas aplicações Modelam uma hierarquia entre elementos árvore genealógica Diagrama hierárquico de uma organização
Cálculo Numérico. Santos Alberto Enriquez-Remigio FAMAT-UFU 2015
Cálculo Numérico Santos Alberto Enriquez-Remigio FAMAT-UFU 2015 1 Capítulo 1 Solução numérica de equações não-lineares 1.1 Introdução Lembremos que todo problema matemático pode ser expresso na forma de
Capítulo 2: Procedimentos e algoritmos
Capítulo 2: Procedimentos e algoritmos Para estudar o processo de computação de um ponto de vista teórico, com a finalidade de caracterizar o que é ou não é computável, é necessário introduzir um modelo
Aprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em
Computação I: Representações de Algoritmos
Computação I: Representações de Algoritmos [email protected] * Parte da apresentação foi gentilmente cedida pelo prof. Igor Steinmacher Agenda Objetivos Relembrando... Algoritmos para desenvolver
INF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 13 K-Nearest Neighbor (KNN) 2016.1 Prof. Augusto Baffa Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor
MATRIZES - PARTE Mais exemplos Multiplicação de duas matrizes AULA 26
AULA 26 MATRIZES - PARTE 2 26. Mais exemplos Nesta aula, veremos mais dois algoritmos envolvendo matrizes. O primeiro deles calcula a matriz resultante da multiplicação de duas matrizes e utiliza três
