Classificadores Bayesianos
|
|
|
- Maria das Neves de Mendonça de Figueiredo
- 8 Há anos
- Visualizações:
Transcrição
1 Escola Politécnica da Universidade de São Paulo Departamento de Engenharia de Computação e Sistemas Digitais - PCS PCS5708 Técnicas de Raciocínio Probabilístico em Inteligência Artificial Classificadores Bayesianos Aplicados a análise sintática da língua portuguesa Marcelo Li Koga Prof.: Paulo Cugnasca 28 de maio de 20
2 Introdução A área de linguística computacional apresenta muitos desafios atualmente, pois a análise de uma linguagem natural meio de uma máquina é uma tarefa bastante complexa. Nesse contexto, o uso de técnicas de raciocínio probabilístico é de grande auxílio pois a análise da linguagem traz muitas incertezas e é necessário saber lidar com elas. Múltiplas classes gramaticais, ambiguidades e figuras de linguagem são exemplos de características que geram essas incertezas. O objetivo desse trabalho é investigar o uso de uma técnica probabilística Naive Bayes aplicada a uma subtarefa da análise sintática da linguagem: a classificação de sujeito de uma oração. É uma tarefa de classificação portanto, realizada em conjunto com uma aprendizagem supervisionada. O capítulo 2 descreve o problema de classificação em geral, 3 e 4 versam sobre o classificador Naive Bayes e suas extensões respectivamente, cap. 5 apresenta alguns resultados de experimentos práticos da tarefa e finalmente no cap. 6 as conclusões são mostradas.
3 2 Classificação O objetivo do problema de classificação é a previsão de categorias (também chamadas de etiquetas) para os dados. Dado um conjunto de dados e de categorias definidas, a tarefa do classificador é construir um modelo capaz de atribuir corretamente uma categoria a cada dado. O primeiro passo para construir um classificador é a definição de um conjunto de treinamento. Este contém uma lista de exemplos (definidos por atributos) cada um com sua respectiva classe. O conjunto de treinamento é então submetido a um algoritmo de classificação e um modelo é construído (indução). Esse modelo pode ser de diversas formas dependendo do algoritmo escolhido, como uma lista de regras, uma árvore de decisão, uma fórmula matemática ou cálculo de probabilidades como no caso do Naive Bayes explicado na próxima seção. Em posse do modelo, o classificador pode então atribuir categorias a novos dados nunca vistos antes (dedução). Para medir a qualidade do modelo construído, pode-se usar um conjunto de teste, que deve ser independente do conjunto de treinamento, cujas classificações também são conhecidas de modo que seja possível averiguar a taxa de acerto do modelo proposto. Vários são os algoritmos existentes para classificação e o que será apresentado na seção a seguir é de um classificador probabilístico, o Naive Bayes. 2
4 3 Classificador Naive Bayes O classificador Naive Bayes é classificador probabilístico baseado no teorema de Bayes (Thomas Bayes) com uma premissa simples: todos os atributos são independentes entre si. A Figura ilustra o modelo. Ela indica que cada atributo A i influencia a classe C, mas nenhum exerce influência sobre o outro. Figura - Modelo Probabilístico Naive Bayes Como classificador probabilístico, ele calcula as probabilidades de uma classe C, dados os atributos A, A 2, A 3,etc. p ( C A, A2, A3,...) Aplicando o teorema de Bayes, a probabilidade seria assim calculada: C) A C) A2 A, C) A3 A2, A2, C)... Mas com a premissa de independência de atributos, o cálculo é simplificado para: C) A C) A2 C) A3 C)... p ( C) A i C) Com a independência de atributos, o classificador Naive Bayes torna-se um método simples e efetivo, tornando-o atrativo. Poucos são os parâmetros que precisam ser estimados, pois apenas as probabilidades a priori de classe e as condicionais de cada atributo dada a classe são necessários. São (k ) + n r k parâmetros, onde k é o número de classes, r é o número de valores diferentes que cada atributo pode assumir e n é o número de atributos. i 3
5 Essa premissa de independência é muitas vezes irreal, mas diversos estudos[2][3] mostram que na prática ela se torna pouco relevante, pois o classificador Naive Bayes apresenta resultados comparáveis a muitos outros algoritmos mais complexos [4]. Muitas vezes, apesar da dependência entre atributos existir, ela não influencia na classificação. 3. Aprendizagem A estimativa das probabilidades é a tarefa da aprendizagem desde classificador. E é uma tarefa simples: a probabilidade será a frequência relativa de cada classe (probabilidades a priori) e cada atributo dada a classe (probabilidades condicionais) no conjunto de treinamento. Por exemplo, se temos 00 exemplos no total, sendo 60 da classe A e 40 da classe B, então: classe A) 0,6 classe B) 0,4 Ainda, se desses 60 da classe A, metade tem atributo A = verdadeiro e metade A = falso e na classe B, todos tem A = falso, então temos: A A verdadeiro A) 0,5 verdadeiro B) 0 A A falso A) 0,5 falso B) E assim por diante, todas as probabilidades são calculadas. Deve-se ter atenção com o caso de não ocorrer certa manifestação de um atributo para determinada classe, caso que a estimativa seria zero (como A = verdadeiro B) no exemplo). Pois como a probabilidade é calculada como um produtório de todas as probabilidades condicionais e a a priori, se houver uma nula, todo o resultado será nulo. Por isso, devemos fazer uma correção de modo que nenhuma estimativa fique em zero: A A verdadeiro A) 0,5 verdadeiro B) 0,0 A A falso A) 0,5 falso B) 0,99 Isso tudo caso os atributos sejam discretos. Caso o atributo seja contínuo, não contamos simplesmente a frequência, mas podemos aproximar a distribuição dos valores para uma distribuição normal []. Portanto, calcula-se a média μ e o desvio-padrão σ² dos 4
6 dados do conjunto de treinamento e assume-se que o atributo se encaixa numa gaussiana definida por esses 2 parâmetros. A probabilidade é calculada usando-se a função gaussiana: p ( x ) 2 2 ( Ai C) e 2 ² Decisão Em posse do modelo probabilístico, o classificador pode então calcular as probabilidades de cada classe para uma determinada entrada. Assim sendo, a decisão da classe escolhida é a da hipótese que obtiver a maior probabilidade, regra chamada de Maximum a Posteriori. 5
7 4 Extensões ao Naive Bayes Este capítulo apresenta algumas técnicas que propõem algumas alterações ao Naive Bayes visando principalmente amenizar sua maior deficiência, que é a premissa de independência entre os atributos. 4. Random Naive Bayes A ideia do Random Naive Bayes é contruir, ao invés de apenas um classificador, diversos classificadores Naive Bayes. No entanto, eles não levarão em conta todos os atributos disponíveis. Cada um será construído utilizando apenas uma quantidade m de atributos aleatórios. Assim, se existe dependência entre alguns atributos ela tende a ser minimizada pois nem todo classificador usa os atributos dependentes entre si e sim subconjuntos que podem ser independentes. Para se chegar a uma resposta final será necessário então combinar as respostas de cada um dos classificadores. Um jeito é escolher a classe mais votada, e esses votos podem ser ponderados pelas probabilidades das hipóteses. 4.2 AODE O AODE (Averaged One-Dependence Estimators) adota outra abordagem para minimizar a dependência dos atributos. Na realidade, ele estende a estrutura do Naive Bayes, incluindo também a dependência de cada atributo com um outro atributo. A Figura 2 ilustra esse modelo. Note que ela mostra a influência de atributos entre si, diferentemente da Figura do Naive Bayes. O AODE também constrói diversos modelos, mais precisamente n modelos, onde n é o número de atributos. Em cada modelo, existe um atributo alvo A alvo e as probabilidades consideradas são as condicionais desse alvo. Por exemplo, consideraremos: C), A A alvo,c), A 2 A alvo,c), etc. 6
8 Figura 2 - Modelo probabilístico do AODE Ou seja, o AODE calcula um nível de dependência e faz isso n vezes. A resposta final será a composição da resposta de todos os classificadores, tal qual no Random Naive Bayes. O AODE tenta melhorar a relação custo computacional / precisão do Naive Bayes e com um pequeno aumento de computação enfraquece a hipótese de independência apresentando maior precisão [5]. 7
9 5 Classificador de Tipos de Sujeito 5. Descrição O classificador desenhado nesse trabalho é um classificador de tipo de sujeito de orações. Na língua portuguesa, uma oração pode ser classificada de 4 maneiras com relação ao sujeito: sujeito explícito (SE), sujeito oculto (SO), sujeito indeterminado (SI) ou oração sem sujeito (OSS). O sujeito explícito é o caso mais comum, no qual o sujeito aparece na frase como em Marcelo caiu o sujeito é justamente Marcelo. Já o sujeito oculto é o caso que ele está implícito na frase, e pode ser inferido pelo contexto ou frases anteriores (posteriores). Por exemplo, na oração Fui ali o sujeito não está escrito, mas sabe-se que é eu pela flexão do verbo. O sujeito indeterminado também ocorre quando ele não está explícito mas não se pode inferir quem é o sujeito, como em Roubaram meu carro não se sabe quem roubou o carro. O último caso ocorre quando a oração não possui sujeito, caso de verbos de fenômenos naturais ou verbo haver no sentido de existir, como em Houve acidentes ou Choveu ontem. Então dizemos que essas orações são sem sujeito. O objetivo é então construir um classificador capaz de deduzir o tipo de sujeito de uma oração, como mostra a Tabela. Tabela - Exemplos classificador de sujeitos Entrada Eu gosto de futebol. Fica ali. Precisa-se de vendedores. Venta muito aqui. Existem traidores aqui. Saída Sujeito Explícito Sujeito Oculto Sujeito Indeterminado Oração Sem Sujeito Sujeito Explícito 5.2 Treinamento Como explicado no capítulo 2 e 3, os classificadores atuam sobre um conjunto de atributos. Precisa-se então definir quais são os atributos pois a entrada inicial são apenas frases em linguagem natural. Decidiu-se extrair das frases alguns atributos morfológicos e estruturais, a saber: Pessoa do verbo (ª, 2ª ou 3ª ) 8
10 Número do verbo (singular ou plural) Se verbo possui hífen + se Se radical do verbo é haver Se radical do verbo é fazer, ser, estar, ir, vir ou passar (i.e., é verbo que pode indicar tempo?) Classe gramatical da palavra anterior ao verbo Ou seja, as frases de entrada precisam antes passar por um pré-processamento para extração dos atributos, usando principalmente um analisador morfológico. Neste trabalho, usou-se o analisador JJSpell. Certamente o processo de escolha desses atributos foi guiado pela experiência no uso da língua, não foram escolhidos aleatoriamente. A pessoa e número do verbo são importantes pois sujeito indeterminado só ocorre em 3ª pessoa, assim como uma das formas deste sujeito é com o -se. Os atributos com radicais de verbos específicos são principalmente para diferenciar as orações sem sujeito, que podem ocorrer com o verbo haver no sentido de existir ou também com verbos indicando passagem de tempo. A classe gramatical da palavra que antecede o verbo é outro atributo bastante importante pois se é um substantivo ou pronome, a chance maior é de que seja o caso de suj. explícito ou caso não exista palavra anterior (verbo é a primeira palavra), maior chance de sujeto oculto. Outro critério para a escolha desses atributos é o fato de eles serem de fácil extração, pois certamente existem outras características mais incisivas para inferência do sujeito, no entanto, elas não são simples de serem detectadas por máquinas. Definidos os atributos, textos jornalísticos do site Folha.com 2 e o conto A Cartomante de Machado de Assis foram usados como conjunto de treinamento, sendo que 43 orações foram classificadas manualmente para esse fim. A Tabela 2 mostra alguns exemplos deste conjunto: JJSpell - A Java wrapper for the Jspell morphologic analyser. Disponível em: (acesso em 28/05/20) 2 Folha.com. Disponível em: (acesso em 28/05/20) 9
11 Tabela 2 - Exemplos do conjunto de treinamento Oração Pessoa Núm. -se? Haver Tempo Anterior Classe Os homens são assim 3ª Plural Não Não Não Subst SE Não acreditam em nada 3ª Plural Não Não Não Conj SO Confessei que sim ª Sing Não Não Não -- SO 5.3 Resultados Foram usadas as implementações do software WEKA [6] para contruir-se os classificadores. Para validá-los, utilizou-se a técnica de validação cruzada com 0 subconjuntos. Os valores das taxas de acerto podem ser verificados na Tabela 3. Tabela 3 - Resultados Naive Bayes Random AODE Taxa de Acerto 83,33 % 79,9 % 80,5 % Todas as três técnicas apresentaram resultados similares, com o Naive Bayes até um pouco melhor. Isso se deve porque neste exemploos atributos não são muito dependentes entre si. A matriz de confusão para o Naive Bayes pode ser vista na Tabela 4. A linha do Sujeito Indeterminado só possui zeros porque nenhum exemplo do conjunto de treinamento apresentava essa classificação. Tabela 4 - Matriz de confusão Classificado Como Suj. Explícito Suj. Oculto Suj. Indeter Sem Sujeito Suj. Explícito Suj. Oculto Su. Indeterminado Sem Sujeito
12 6 Conclusões Com a realização deste trabalho, conclui-se que o uso de técnicas probabilísticas é de grande valia ao processamento de linguagem natural. O resultado alcançado com o Naive Bayes, de 84%, é bastante relevante e pode ser usado como auxílio na análise sintática. Além disso, mostra que a técnica do Naive Bayes é de fato efetiva e que a hipótese de independência muitas vezes não influencia o resultado. Espera-se que em trabalhos futuros possa-se ampliar o escopo da análise, classificando não apenas o sujeito mas outros aspectos como a predicado, a própria morfologia ou até a árvore sintática completa.
13 7 Referência Bibliográfica. Russel, S. e Norvig, P. Inteligência Artificial. Tradução da Segunda Edição. Cap. 4 e 20. Rio de Janeiro, Elsevier (2004) 2. Zhang, H. The Optimality of Naive Bayes. 3. Rish, Irina. An empirical study of the naive Bayes classifier. IJCAI 200 Workshop on Empirical Methods in Artificial Intelligence (200) 4. Langley, P.; Iba, W. e Thompson,K. An analysis of Bayesian classifiers. In: Proceedings AAAI- 94 Seattle, WA, AAAI Press and MIT Press (992), pp Webb, G. I., J. Boughton, and Z. Wang. Not So Naive Bayes: Aggregating One-Dependence Estimators. Machine Learning 58(). Netherlands: Springer, pages 5-24 (2005) 6. WEKA Data Mining with Open Source Machine Learning in Java. (acesso em 28/05/20) 2
Classificação: 1R e Naïve Bayes. Eduardo Raul Hruschka
Classificação: 1R e Naïve Bayes Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada
Métodos para Classificação: - Naïve Bayes.
Métodos para Classificação: - 1R; - Naïve Bayes. Visão Geral: Simplicidade em primeiro lugar: 1R; Naïve Bayes. 2 Classificação: Tarefa: Dado um conjunto de exemplos préclassificados, construir um modelo
Aprendizagem Bayesiana
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Aprendizagem Bayesiana David Menotti www.inf.ufpr.br/menotti/ci171-182 Aprendizagem Bayesiana Agenda Introdução Teorema de Bayes
Aprendizado Bayesiano Anteriormente...
Aprendizado Bayesiano Anteriormente... Conceito de Probabilidade Condicional É a probabilidade de um evento A dada a ocorrência de um evento B Universidade de São Paulo Instituto de Ciências Matemáticas
Inteligência Artificial. Raimundo Osvaldo Vieira [DComp IFMA Campus Monte Castelo]
Inteligência Artificial Raimundo Osvaldo Vieira [DComp IFMA Campus Monte Castelo] Aprendizagem de Máquina Área da Inteligência Artificial cujo objetivo é o desenvolvimento de técnicas computacionais sobre
Exame de Aprendizagem Automática
Exame de Aprendizagem Automática 2 páginas com 12 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 12 de Janeiro de 2017 Nota: O exame está cotado para 40 valores. Os 20 valores
Exame de Aprendizagem Automática
Exame de Aprendizagem Automática 2 páginas com 11 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 5 de Janeiro de 2016 Nota: O exame está cotado para 40 valores. Os 20 valores
Aprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 07 Classificação com o algoritmo knn Max Pereira Classificação com o algoritmo (knn) Um algoritmo supervisionado usado para classificar
Aprendizado de Máquina. Combinando Classificadores
Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquina Combinando Classificadores David Menotti, Ph.D. web.inf.ufpr.br/menotti Introdução O uso de vários classificadores
Aprendizado de Máquina. Conteudo. Terminologia. Notes. Notes. Notes. Notes. Aprendizagem Bayesiana. Luiz Eduardo S. Oliveira
Aprendizado de Máquina Aprendizagem Bayesiana Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://lesoliveira.net Luiz S. Oliveira (UFPR) Aprendizado de Máquina 1
Descoberta de conhecimento em redes sociais e bases de dados públicas
Descoberta de conhecimento em redes sociais e bases de dados públicas Trabalho de Formatura Supervisionado Bacharelado em Ciência da Computação - IME USP Aluna: Fernanda de Camargo Magano Orientadora:
Aprendizado Bayesiano
Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado
Agregação de Algoritmos de Aprendizado de Máquina (AM) Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta
Agregação de Algoritmos de Aprendizado de Máquina (AM) Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta ([email protected]) Sumário 1. Motivação 2. Bagging 3. Random Forest 4. Boosting
Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas
Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas Wrapper Filtros Muitos algoritmos de AM são projetados de modo a selecionar os
Aprendizagem de Máquina
Aprendizagem de Máquina Avaliação de Paradigmas Alessandro L. Koerich Mestrado/Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática Aprendizagem
Análise Sintática de Frases utilizando Gramáticas Livres de Contexto Probabilísticas
Universidade de São Paulo Mestrado em Ciência da Computação Instituto de Matemática e Estatística Disciplina MAC5725 Lingüística Computacional Análise Sintática de Frases utilizando Gramáticas Livres de
Modelos Bayesianos. Ernesto F. L. Amaral Magna M. Inácio
1 Modelos Bayesianos Ernesto F. L. Amaral Magna M. Inácio 09 de dezembro de 2010 Tópicos Especiais em Teoria e Análise Política: Problema de Desenho e Análise Empírica (DCP 859B4) Objetivos 2 Apresentar
Aprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 09 Árvores de Decisão Max Pereira Classificação É a tarefa de organizar objetos em uma entre diversas categorias pré-definidas. Exemplos
Utilização do Corte Percentual na categorização de documentos da Web com o algoritmo Naive Bayes
Utilização do Corte Percentual na categorização de documentos da Web com o algoritmo Naive Bayes José Alberto Sousa Torres/ Grinaldo Oliveira /Cláudio Alves Amorim * Em um momento em que é crescente a
Avaliando Hipóteses. George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE
Avaliando Hipóteses George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE Pontos importantes Erro da Amostra e Erro Real Como Calcular Intervalo de Confiança Erros de hipóteses Estimadores Comparando
Cap. 4 - Estimação por Intervalo
Cap. 4 - Estimação por Intervalo Amostragem e inferência estatística População: consiste na totalidade das observações em que estamos interessados. Nº de observações na população é denominado tamanho=n.
Inteligência Artificial. Raimundo Osvaldo Vieira [DECOMP IFMA Campus Monte Castelo]
Inteligência Artificial Raimundo Osvaldo Vieira [DECOMP IFMA Campus Monte Castelo] Abordagem Estocástica para a Incerteza: Redes Bayesianas Usando a teoria das probabilidades, podemos determinar, frequentemente
Aprendizagem de Máquina - 2. Prof. Júlio Cesar Nievola PPGIa - PUCPR
Aprendizagem de Máquina - 2 Prof. Júlio Cesar Nievola PPGIa - PUCPR Inteligência versus Aprendizado Aprendizado é a chave da superioridade da Inteligência Humana Para que uma máquina tenha Comportamento
lnteligência Artificial Raciocínio Probabilístico - Introdução a Redes Bayesianas
lnteligência Artificial Raciocínio Probabilístico - Introdução a Redes Bayesianas Referências Adicionais Russel e Norvig cap. 14 e 15 Pearl, Judea. Probabilistic Reasoning in Intelligent Systems: Network
Classificação. Eduardo Raul Hruschka
Classificação Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada Combinação de Modelos
Descoberta de Conhecimento em Bancos de Dados - KDD
Descoberta de Conhecimento em Bancos de Dados - KDD Professor: Rosalvo Ferreira de Oliveira Neto Disciplina: Inteligência Artificial Tópicos 1. Definições 2. Fases do processo 3. Exemplo do DMC 4. Avaliação
Aprendizagem de Máquina. Prof. Júlio Cesar Nievola PPGIA - PUCPR
Aprendizagem de Máquina Prof. Júlio Cesar Nievola PPGIA - PUCPR Introdução Justificativa Recente progresso em algoritmos e teoria Disponibilidade crescente de dados online Poder computacional disponível
CEFET/RJ Inteligência Artificial (2018.1) Prof. Eduardo Bezerra Lista de exercícios 05
. CEFET/RJ Inteligência Artificial (2018.1) Prof. Eduardo Bezerra ([email protected]) Lista de exercícios 05 Créditos: essa lista de exercícios contém a tradução dos exercícios retirados do livro texto
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem
CAPÍTULO 4 PROBABILIDADE PROBABILIDADE PPGEP Espaço Amostral e Eventos Espaço Amostral e Eventos UFRGS. Probabilidade.
PROBABILIDADE CAPÍTULO 4 PROBABILIDADE UFRGS A Teoria das s estuda os fenômenos aleatórios. Fenômeno Aleatório: são os fenômenos cujo resultado não pode ser previsto exatamente. Se o fenômeno se repetir,
CLASSIFICADORES BAEYSIANOS
CLASSIFICADORES BAEYSIANOS Teorema de Bayes 2 Frequentemente, uma informação é apresentada na forma de probabilidade condicional Probabilidade de um evento ocorrer dada uma condição Probabilidade de um
Inteligência nos Negócios (Business Inteligente)
Inteligência nos Negócios (Business Inteligente) Sistemas de Informação Sistemas de Apoio a Decisão Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 6) Fundamentação da disciplina Analise de dados Decisões
Aprendizado de Máquina (Machine Learning)
Ciência da Computação (Machine Learning) Aula 01 Motivação, áreas de aplicação e fundamentos Max Pereira Nem todo conhecimento tem o mesmo valor. O que torna determinado conhecimento mais importante que
Mineração de Dados em Biologia Molecular
Mineração de Dados em Biologia Molecular André C.. L. F. de Carvalho Monitor: Valéria Carvalho lanejamento e Análise de Experimentos rincipais tópicos Estimativa do erro artição dos dados Reamostragem
Probabilidades. Wagner H. Bonat Elias T. Krainski Fernando P. Mayer
Probabilidades Wagner H. Bonat Elias T. Krainski Fernando P. Mayer Universidade Federal do Paraná Departamento de Estatística Laboratório de Estatística e Geoinformação 06/03/2018 WB, EK, FM ( LEG/DEST/UFPR
Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy
Proceeding Series of the Brazilian Society of pplied and Computational Mathematics, Vol., N., 0. Trabalho apresentado no XXXV CNMC, Natal-RN, 0. Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy
WEKA: Prática Carregando a base de dados no Weka
WEKA: Prática 2 1. Introdução O objetivo desta prática é utilizar a ferramenta Weka para comparar dois algoritmos de aprendizagem de máquina em um problema de detecção de SPAM. Os algoritmos a serem comparados
6. QUADRIMESTRE IDEAL 7. NÍVEL Graduação 8. Nº. MÁXIMO DE ALUNOS POR TURMA
Universidade Federal do ABC Rua Santa Adélia, 166 - Bairro Bangu - Santo André - SP - Brasil CEP 09.210-170 - Telefone/Fax: +55 11 4996-3166 1. CÓDIGO E NOME DA DISCIPLINA MC5004 - APRENDIZADO DE MÁQUINA
Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos
Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas ([email protected]) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal
DCBD. Avaliação de modelos. Métricas para avaliação de desempenho. Avaliação de modelos. Métricas para avaliação de desempenho...
DCBD Métricas para avaliação de desempenho Como avaliar o desempenho de um modelo? Métodos para avaliação de desempenho Como obter estimativas confiáveis? Métodos para comparação de modelos Como comparar
Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si
Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si Classificação de Dados Os modelos de classificação de dados são preditivos, pois desempenham inferências
Combinação de Classificadores (fusão)
Combinação de Classificadores (fusão) André Tavares da Silva [email protected] Livro da Kuncheva Roteiro Sistemas com múltiplos classificadores Fusão por voto majoritário voto majoritário ponderado
2 Sentiment Analysis 2.1
2 Sentiment Analysis 2.1 Definição do Problema Sentiment Analysis é um problema de categorização de texto no qual deseja-se detectar opiniões favoráveis e desfavoráveis com relação a um determinado tópico
Aprendizado de Máquina (Machine Learning)
Ciência da Computação (Machine Learning) Aula 07 Classificação com o algoritmo knn Max Pereira Classificação com o algoritmo k-nearest Neighbors (knn) Como os filmes são categorizados em gêneros? O que
INF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 14 Support Vector Machines (SVM) 2016.1 Prof. Augusto Baffa Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest
INTELIGÊNCIA ARTIFICIAL
Figura: Capa do Livro Russell, S., Norvig, P. Artificial Intelligence A Modern Approach, Pearson, 2009. Universidade Federal de Campina Grande Unidade Acadêmica de Sistemas e Computação Curso de Pós-Graduação
6 Atributos. A dívida da empresa subiu.
6 Atributos Para buscar o sentimento de um texto automaticamente precisamos encontrar boas pistas ao longo do discurso. Uma grande variedade de palavras e expressões possui conotação positiva ou negativa,
TÍTULO: IDENTIFICAÇÃO DE CARACTERES APRESENTADOS A UMA CÂMERA POR MEIO DO MOVIMENTO DOS DEDOS DA MÃO DE UM SER HUMANO
Anais do Conic-Semesp. Volume 1, 2013 - Faculdade Anhanguera de Campinas - Unidade 3. ISSN 2357-8904 TÍTULO: IDENTIFICAÇÃO DE CARACTERES APRESENTADOS A UMA CÂMERA POR MEIO DO MOVIMENTO DOS DEDOS DA MÃO
Chamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω.
PROBABILIDADE 1.0 Conceitos Gerais No caso em que os possíveis resultados de um experimento aleatório podem ser listados (caso discreto), um modelo probabilístico pode ser entendido como a listagem desses
27/02/2014. Tratamento de Incertezas TIC Aula 0. Conteúdo Apresentação da Disciplina. Motivação Programa da disciplina
Tratamento de Incertezas TIC-00.176 Aula 0 Conteúdo Apresentação da Disciplina Professor Leandro Augusto Frata Fernandes [email protected] Material disponível em http://www.ic.uff.br/~laffernandes/teaching/2014.1/tic-00.176
Plano. Aspectos Relevantes de HMMs. Teoria de HMMs. Introdução aos Modelos Escondidos de Markov
Plano Esta apresentação é para pessoas sem conhecimento prévio de HMMs Introdução aos Modelos Escondidos de Markov 2004 Objetivos: Ensinar alguma coisa, não tudo (Visão geral, sem muitos detalhes). Tentar
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Conceitos básicos Classificação não-supervisionada:
Lista de Exercícios - Capítulo 8 [1] SCC Inteligência Artificial 1o. Semestre de Prof. João Luís
ICMC-USP Lista de Exercícios - Capítulo 8 [1] SCC-630 - Inteligência Artificial 1o. Semestre de 2011 - Prof. João Luís 1. Seja breve na resposta às seguintes questões: (a) o que você entende por Aprendizado
MCZA Processamento de Linguagem Natural Classificação de textos
MCZA017-13 Processamento de Linguagem Natural Classificação de textos Prof. Jesús P. Mena-Chalco [email protected] 1Q-2018 1 Bibliografia Daniel Jurafsky & James H. Martin. Speech and language processing:
Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Probabilidade Ricardo Ehlers [email protected] Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Introdução Experimento aleatório Definição Qualquer experimento cujo resultado
Estatística Descritiva
C E N T R O D E M A T E M Á T I C A, C O M P U T A Ç Ã O E C O G N I Ç Ã O UFABC Estatística Descritiva Centro de Matemática, Computação e Cognição March 17, 2013 Slide 1/52 1 Definições Básicas Estatística
1 Classificadores Bayseanos Simples
Aula 12 - Classificadores Bayseanos Curso de Data Mining Sandra de Amo Classificadores Bayseanos são classificadores estatísticos que classificam um objeto numa determinada classe baseando-se na probabilidade
Implementação de um Modelo para Previsão de Evasão Escolar no IFSULDEMINAS
6ª Jornada Científica e Tecnológica e 3º Simpósio de Pós-Graduação do IFSULDEMINAS 04 e 05 de novembro de 2014, Pouso Alegre/MG Implementação de um Modelo para Previsão de Evasão Escolar no IFSULDEMINAS
Les Estatística Aplicada II AMOSTRA E POPULAÇÃO
Les 0407 - Estatística Aplicada II AMOSTRA E POPULAÇÃO AULA 1 04/08/16 Prof a Lilian M. Lima Cunha Agosto de 2016 Estatística 3 blocos de conhecimento Estatística Descritiva Levantamento e resumo de dados
Reconhecimento de Padrões
Reconhecimento de Padrões André Tavares da Silva [email protected] Kuncheva pg. 8 a 25 (seções 1.3 e 1.4) Roteiro da aula Cálculo do erro de um classificador Técnicas de treinamento, avaliação e teste
Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Probabilidade Ricardo Ehlers [email protected] Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Experimento aleatório Definição. Qualquer experimento cujo resultado não pode
Fabrício Jailson Barth BandTec
Introdução à Inteligência Artificial Fabrício Jailson Barth [email protected] BandTec 1 o semestre de 2012 Objetivos e Sumário O que é Inteligência Artificial (IA)? Objetivos da IA. Influência
