Classificadores Bayesianos

Tamanho: px
Começar a partir da página:

Download "Classificadores Bayesianos"

Transcrição

1 Escola Politécnica da Universidade de São Paulo Departamento de Engenharia de Computação e Sistemas Digitais - PCS PCS5708 Técnicas de Raciocínio Probabilístico em Inteligência Artificial Classificadores Bayesianos Aplicados a análise sintática da língua portuguesa Marcelo Li Koga Prof.: Paulo Cugnasca 28 de maio de 20

2 Introdução A área de linguística computacional apresenta muitos desafios atualmente, pois a análise de uma linguagem natural meio de uma máquina é uma tarefa bastante complexa. Nesse contexto, o uso de técnicas de raciocínio probabilístico é de grande auxílio pois a análise da linguagem traz muitas incertezas e é necessário saber lidar com elas. Múltiplas classes gramaticais, ambiguidades e figuras de linguagem são exemplos de características que geram essas incertezas. O objetivo desse trabalho é investigar o uso de uma técnica probabilística Naive Bayes aplicada a uma subtarefa da análise sintática da linguagem: a classificação de sujeito de uma oração. É uma tarefa de classificação portanto, realizada em conjunto com uma aprendizagem supervisionada. O capítulo 2 descreve o problema de classificação em geral, 3 e 4 versam sobre o classificador Naive Bayes e suas extensões respectivamente, cap. 5 apresenta alguns resultados de experimentos práticos da tarefa e finalmente no cap. 6 as conclusões são mostradas.

3 2 Classificação O objetivo do problema de classificação é a previsão de categorias (também chamadas de etiquetas) para os dados. Dado um conjunto de dados e de categorias definidas, a tarefa do classificador é construir um modelo capaz de atribuir corretamente uma categoria a cada dado. O primeiro passo para construir um classificador é a definição de um conjunto de treinamento. Este contém uma lista de exemplos (definidos por atributos) cada um com sua respectiva classe. O conjunto de treinamento é então submetido a um algoritmo de classificação e um modelo é construído (indução). Esse modelo pode ser de diversas formas dependendo do algoritmo escolhido, como uma lista de regras, uma árvore de decisão, uma fórmula matemática ou cálculo de probabilidades como no caso do Naive Bayes explicado na próxima seção. Em posse do modelo, o classificador pode então atribuir categorias a novos dados nunca vistos antes (dedução). Para medir a qualidade do modelo construído, pode-se usar um conjunto de teste, que deve ser independente do conjunto de treinamento, cujas classificações também são conhecidas de modo que seja possível averiguar a taxa de acerto do modelo proposto. Vários são os algoritmos existentes para classificação e o que será apresentado na seção a seguir é de um classificador probabilístico, o Naive Bayes. 2

4 3 Classificador Naive Bayes O classificador Naive Bayes é classificador probabilístico baseado no teorema de Bayes (Thomas Bayes) com uma premissa simples: todos os atributos são independentes entre si. A Figura ilustra o modelo. Ela indica que cada atributo A i influencia a classe C, mas nenhum exerce influência sobre o outro. Figura - Modelo Probabilístico Naive Bayes Como classificador probabilístico, ele calcula as probabilidades de uma classe C, dados os atributos A, A 2, A 3,etc. p ( C A, A2, A3,...) Aplicando o teorema de Bayes, a probabilidade seria assim calculada: C) A C) A2 A, C) A3 A2, A2, C)... Mas com a premissa de independência de atributos, o cálculo é simplificado para: C) A C) A2 C) A3 C)... p ( C) A i C) Com a independência de atributos, o classificador Naive Bayes torna-se um método simples e efetivo, tornando-o atrativo. Poucos são os parâmetros que precisam ser estimados, pois apenas as probabilidades a priori de classe e as condicionais de cada atributo dada a classe são necessários. São (k ) + n r k parâmetros, onde k é o número de classes, r é o número de valores diferentes que cada atributo pode assumir e n é o número de atributos. i 3

5 Essa premissa de independência é muitas vezes irreal, mas diversos estudos[2][3] mostram que na prática ela se torna pouco relevante, pois o classificador Naive Bayes apresenta resultados comparáveis a muitos outros algoritmos mais complexos [4]. Muitas vezes, apesar da dependência entre atributos existir, ela não influencia na classificação. 3. Aprendizagem A estimativa das probabilidades é a tarefa da aprendizagem desde classificador. E é uma tarefa simples: a probabilidade será a frequência relativa de cada classe (probabilidades a priori) e cada atributo dada a classe (probabilidades condicionais) no conjunto de treinamento. Por exemplo, se temos 00 exemplos no total, sendo 60 da classe A e 40 da classe B, então: classe A) 0,6 classe B) 0,4 Ainda, se desses 60 da classe A, metade tem atributo A = verdadeiro e metade A = falso e na classe B, todos tem A = falso, então temos: A A verdadeiro A) 0,5 verdadeiro B) 0 A A falso A) 0,5 falso B) E assim por diante, todas as probabilidades são calculadas. Deve-se ter atenção com o caso de não ocorrer certa manifestação de um atributo para determinada classe, caso que a estimativa seria zero (como A = verdadeiro B) no exemplo). Pois como a probabilidade é calculada como um produtório de todas as probabilidades condicionais e a a priori, se houver uma nula, todo o resultado será nulo. Por isso, devemos fazer uma correção de modo que nenhuma estimativa fique em zero: A A verdadeiro A) 0,5 verdadeiro B) 0,0 A A falso A) 0,5 falso B) 0,99 Isso tudo caso os atributos sejam discretos. Caso o atributo seja contínuo, não contamos simplesmente a frequência, mas podemos aproximar a distribuição dos valores para uma distribuição normal []. Portanto, calcula-se a média μ e o desvio-padrão σ² dos 4

6 dados do conjunto de treinamento e assume-se que o atributo se encaixa numa gaussiana definida por esses 2 parâmetros. A probabilidade é calculada usando-se a função gaussiana: p ( x ) 2 2 ( Ai C) e 2 ² Decisão Em posse do modelo probabilístico, o classificador pode então calcular as probabilidades de cada classe para uma determinada entrada. Assim sendo, a decisão da classe escolhida é a da hipótese que obtiver a maior probabilidade, regra chamada de Maximum a Posteriori. 5

7 4 Extensões ao Naive Bayes Este capítulo apresenta algumas técnicas que propõem algumas alterações ao Naive Bayes visando principalmente amenizar sua maior deficiência, que é a premissa de independência entre os atributos. 4. Random Naive Bayes A ideia do Random Naive Bayes é contruir, ao invés de apenas um classificador, diversos classificadores Naive Bayes. No entanto, eles não levarão em conta todos os atributos disponíveis. Cada um será construído utilizando apenas uma quantidade m de atributos aleatórios. Assim, se existe dependência entre alguns atributos ela tende a ser minimizada pois nem todo classificador usa os atributos dependentes entre si e sim subconjuntos que podem ser independentes. Para se chegar a uma resposta final será necessário então combinar as respostas de cada um dos classificadores. Um jeito é escolher a classe mais votada, e esses votos podem ser ponderados pelas probabilidades das hipóteses. 4.2 AODE O AODE (Averaged One-Dependence Estimators) adota outra abordagem para minimizar a dependência dos atributos. Na realidade, ele estende a estrutura do Naive Bayes, incluindo também a dependência de cada atributo com um outro atributo. A Figura 2 ilustra esse modelo. Note que ela mostra a influência de atributos entre si, diferentemente da Figura do Naive Bayes. O AODE também constrói diversos modelos, mais precisamente n modelos, onde n é o número de atributos. Em cada modelo, existe um atributo alvo A alvo e as probabilidades consideradas são as condicionais desse alvo. Por exemplo, consideraremos: C), A A alvo,c), A 2 A alvo,c), etc. 6

8 Figura 2 - Modelo probabilístico do AODE Ou seja, o AODE calcula um nível de dependência e faz isso n vezes. A resposta final será a composição da resposta de todos os classificadores, tal qual no Random Naive Bayes. O AODE tenta melhorar a relação custo computacional / precisão do Naive Bayes e com um pequeno aumento de computação enfraquece a hipótese de independência apresentando maior precisão [5]. 7

9 5 Classificador de Tipos de Sujeito 5. Descrição O classificador desenhado nesse trabalho é um classificador de tipo de sujeito de orações. Na língua portuguesa, uma oração pode ser classificada de 4 maneiras com relação ao sujeito: sujeito explícito (SE), sujeito oculto (SO), sujeito indeterminado (SI) ou oração sem sujeito (OSS). O sujeito explícito é o caso mais comum, no qual o sujeito aparece na frase como em Marcelo caiu o sujeito é justamente Marcelo. Já o sujeito oculto é o caso que ele está implícito na frase, e pode ser inferido pelo contexto ou frases anteriores (posteriores). Por exemplo, na oração Fui ali o sujeito não está escrito, mas sabe-se que é eu pela flexão do verbo. O sujeito indeterminado também ocorre quando ele não está explícito mas não se pode inferir quem é o sujeito, como em Roubaram meu carro não se sabe quem roubou o carro. O último caso ocorre quando a oração não possui sujeito, caso de verbos de fenômenos naturais ou verbo haver no sentido de existir, como em Houve acidentes ou Choveu ontem. Então dizemos que essas orações são sem sujeito. O objetivo é então construir um classificador capaz de deduzir o tipo de sujeito de uma oração, como mostra a Tabela. Tabela - Exemplos classificador de sujeitos Entrada Eu gosto de futebol. Fica ali. Precisa-se de vendedores. Venta muito aqui. Existem traidores aqui. Saída Sujeito Explícito Sujeito Oculto Sujeito Indeterminado Oração Sem Sujeito Sujeito Explícito 5.2 Treinamento Como explicado no capítulo 2 e 3, os classificadores atuam sobre um conjunto de atributos. Precisa-se então definir quais são os atributos pois a entrada inicial são apenas frases em linguagem natural. Decidiu-se extrair das frases alguns atributos morfológicos e estruturais, a saber: Pessoa do verbo (ª, 2ª ou 3ª ) 8

10 Número do verbo (singular ou plural) Se verbo possui hífen + se Se radical do verbo é haver Se radical do verbo é fazer, ser, estar, ir, vir ou passar (i.e., é verbo que pode indicar tempo?) Classe gramatical da palavra anterior ao verbo Ou seja, as frases de entrada precisam antes passar por um pré-processamento para extração dos atributos, usando principalmente um analisador morfológico. Neste trabalho, usou-se o analisador JJSpell. Certamente o processo de escolha desses atributos foi guiado pela experiência no uso da língua, não foram escolhidos aleatoriamente. A pessoa e número do verbo são importantes pois sujeito indeterminado só ocorre em 3ª pessoa, assim como uma das formas deste sujeito é com o -se. Os atributos com radicais de verbos específicos são principalmente para diferenciar as orações sem sujeito, que podem ocorrer com o verbo haver no sentido de existir ou também com verbos indicando passagem de tempo. A classe gramatical da palavra que antecede o verbo é outro atributo bastante importante pois se é um substantivo ou pronome, a chance maior é de que seja o caso de suj. explícito ou caso não exista palavra anterior (verbo é a primeira palavra), maior chance de sujeto oculto. Outro critério para a escolha desses atributos é o fato de eles serem de fácil extração, pois certamente existem outras características mais incisivas para inferência do sujeito, no entanto, elas não são simples de serem detectadas por máquinas. Definidos os atributos, textos jornalísticos do site Folha.com 2 e o conto A Cartomante de Machado de Assis foram usados como conjunto de treinamento, sendo que 43 orações foram classificadas manualmente para esse fim. A Tabela 2 mostra alguns exemplos deste conjunto: JJSpell - A Java wrapper for the Jspell morphologic analyser. Disponível em: (acesso em 28/05/20) 2 Folha.com. Disponível em: (acesso em 28/05/20) 9

11 Tabela 2 - Exemplos do conjunto de treinamento Oração Pessoa Núm. -se? Haver Tempo Anterior Classe Os homens são assim 3ª Plural Não Não Não Subst SE Não acreditam em nada 3ª Plural Não Não Não Conj SO Confessei que sim ª Sing Não Não Não -- SO 5.3 Resultados Foram usadas as implementações do software WEKA [6] para contruir-se os classificadores. Para validá-los, utilizou-se a técnica de validação cruzada com 0 subconjuntos. Os valores das taxas de acerto podem ser verificados na Tabela 3. Tabela 3 - Resultados Naive Bayes Random AODE Taxa de Acerto 83,33 % 79,9 % 80,5 % Todas as três técnicas apresentaram resultados similares, com o Naive Bayes até um pouco melhor. Isso se deve porque neste exemploos atributos não são muito dependentes entre si. A matriz de confusão para o Naive Bayes pode ser vista na Tabela 4. A linha do Sujeito Indeterminado só possui zeros porque nenhum exemplo do conjunto de treinamento apresentava essa classificação. Tabela 4 - Matriz de confusão Classificado Como Suj. Explícito Suj. Oculto Suj. Indeter Sem Sujeito Suj. Explícito Suj. Oculto Su. Indeterminado Sem Sujeito

12 6 Conclusões Com a realização deste trabalho, conclui-se que o uso de técnicas probabilísticas é de grande valia ao processamento de linguagem natural. O resultado alcançado com o Naive Bayes, de 84%, é bastante relevante e pode ser usado como auxílio na análise sintática. Além disso, mostra que a técnica do Naive Bayes é de fato efetiva e que a hipótese de independência muitas vezes não influencia o resultado. Espera-se que em trabalhos futuros possa-se ampliar o escopo da análise, classificando não apenas o sujeito mas outros aspectos como a predicado, a própria morfologia ou até a árvore sintática completa.

13 7 Referência Bibliográfica. Russel, S. e Norvig, P. Inteligência Artificial. Tradução da Segunda Edição. Cap. 4 e 20. Rio de Janeiro, Elsevier (2004) 2. Zhang, H. The Optimality of Naive Bayes. 3. Rish, Irina. An empirical study of the naive Bayes classifier. IJCAI 200 Workshop on Empirical Methods in Artificial Intelligence (200) 4. Langley, P.; Iba, W. e Thompson,K. An analysis of Bayesian classifiers. In: Proceedings AAAI- 94 Seattle, WA, AAAI Press and MIT Press (992), pp Webb, G. I., J. Boughton, and Z. Wang. Not So Naive Bayes: Aggregating One-Dependence Estimators. Machine Learning 58(). Netherlands: Springer, pages 5-24 (2005) 6. WEKA Data Mining with Open Source Machine Learning in Java. (acesso em 28/05/20) 2

Classificação: 1R e Naïve Bayes. Eduardo Raul Hruschka

Classificação: 1R e Naïve Bayes. Eduardo Raul Hruschka Classificação: 1R e Naïve Bayes Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada

Leia mais

Métodos para Classificação: - Naïve Bayes.

Métodos para Classificação: - Naïve Bayes. Métodos para Classificação: - 1R; - Naïve Bayes. Visão Geral: Simplicidade em primeiro lugar: 1R; Naïve Bayes. 2 Classificação: Tarefa: Dado um conjunto de exemplos préclassificados, construir um modelo

Leia mais

Aprendizagem Bayesiana

Aprendizagem Bayesiana Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Aprendizagem Bayesiana David Menotti www.inf.ufpr.br/menotti/ci171-182 Aprendizagem Bayesiana Agenda Introdução Teorema de Bayes

Leia mais

Método para Classificação: - Naïve Bayes.

Método para Classificação: - Naïve Bayes. Método para Classificação: - Naïve Bayes. Modelagem statística (Bayesiana): Contrariamente ao 1R, usa todos os atributos; Duas premissas: Atributos igualmente importantes; Atributos estatisticamente independentes

Leia mais

Aprendizado Bayesiano Anteriormente...

Aprendizado Bayesiano Anteriormente... Aprendizado Bayesiano Anteriormente... Conceito de Probabilidade Condicional É a probabilidade de um evento A dada a ocorrência de um evento B Universidade de São Paulo Instituto de Ciências Matemáticas

Leia mais

Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta

Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta Professor: Eduardo R Hruschka Estagiário PAE: Luiz F S Coletta (luizfsc@icmcuspbr) Sumário Definição do projeto 1 Desenvolvimento de algoritmo de Aprendizado de Máquina (AM); 2 Pré-processamento dos dados;

Leia mais

4 Algoritmos de Aprendizado

4 Algoritmos de Aprendizado 4 Algoritmos de Aprendizado Este capítulo apresenta os algoritmos utilizados ao longo da dissertação e alguns utilizados como base por eles. Os algoritmos adotados são todos de aprendizado supervisionado.

Leia mais

Inteligência Artificial. Raimundo Osvaldo Vieira [DComp IFMA Campus Monte Castelo]

Inteligência Artificial. Raimundo Osvaldo Vieira [DComp IFMA Campus Monte Castelo] Inteligência Artificial Raimundo Osvaldo Vieira [DComp IFMA Campus Monte Castelo] Aprendizagem de Máquina Área da Inteligência Artificial cujo objetivo é o desenvolvimento de técnicas computacionais sobre

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um

Leia mais

Naïve Bayesian Learning. Marcílo Souto DIMAp/UFRN

Naïve Bayesian Learning. Marcílo Souto DIMAp/UFRN Naïve Bayesian Learning Marcílo Souto DIMAp/UFRN 1 Teorema de Bayes Probabilidade de um evento H dada evidência E: Pr[ H E] Pr[ E H ]Pr[ H ] Pr[ E] Probabilidade a priori de H: Probabilidade do evento

Leia mais

Exame de Aprendizagem Automática

Exame de Aprendizagem Automática Exame de Aprendizagem Automática 2 páginas com 12 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 12 de Janeiro de 2017 Nota: O exame está cotado para 40 valores. Os 20 valores

Leia mais

Exame de Aprendizagem Automática

Exame de Aprendizagem Automática Exame de Aprendizagem Automática 2 páginas com 11 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 5 de Janeiro de 2016 Nota: O exame está cotado para 40 valores. Os 20 valores

Leia mais

4 Método Proposto CR AD PA NDVI Descrição geral do modelo

4 Método Proposto CR AD PA NDVI Descrição geral do modelo 34 4 Método Proposto 4.1. Descrição geral do modelo Neste trabalho, cada classe (cobertura vegetal) possui um HMM específico. Os estágios fenológicos correspondem a estados e os símbolos observáveis a

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 07 Classificação com o algoritmo knn Max Pereira Classificação com o algoritmo (knn) Um algoritmo supervisionado usado para classificar

Leia mais

Aprendizado de Máquina. Combinando Classificadores

Aprendizado de Máquina. Combinando Classificadores Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquina Combinando Classificadores David Menotti, Ph.D. web.inf.ufpr.br/menotti Introdução O uso de vários classificadores

Leia mais

Aprendizado de Máquina. Conteudo. Terminologia. Notes. Notes. Notes. Notes. Aprendizagem Bayesiana. Luiz Eduardo S. Oliveira

Aprendizado de Máquina. Conteudo. Terminologia. Notes. Notes. Notes. Notes. Aprendizagem Bayesiana. Luiz Eduardo S. Oliveira Aprendizado de Máquina Aprendizagem Bayesiana Luiz Eduardo S. Oliveira Universidade Federal do Paraná Departamento de Informática http://lesoliveira.net Luiz S. Oliveira (UFPR) Aprendizado de Máquina 1

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 10 Classificação com Naïve Bayes Max Pereira Raciocínio Probabilístico A notação tradicional para criar e analisar sentenças lógicas

Leia mais

Descoberta de conhecimento em redes sociais e bases de dados públicas

Descoberta de conhecimento em redes sociais e bases de dados públicas Descoberta de conhecimento em redes sociais e bases de dados públicas Trabalho de Formatura Supervisionado Bacharelado em Ciência da Computação - IME USP Aluna: Fernanda de Camargo Magano Orientadora:

Leia mais

Aprendizado Bayesiano

Aprendizado Bayesiano Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado

Leia mais

Agregação de Algoritmos de Aprendizado de Máquina (AM) Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta

Agregação de Algoritmos de Aprendizado de Máquina (AM) Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta Agregação de Algoritmos de Aprendizado de Máquina (AM) Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta (luizfsc@icmc.usp.br) Sumário 1. Motivação 2. Bagging 3. Random Forest 4. Boosting

Leia mais

Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas

Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas Wrapper Filtros Muitos algoritmos de AM são projetados de modo a selecionar os

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Avaliação de Paradigmas Alessandro L. Koerich Mestrado/Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática Aprendizagem

Leia mais

Aprendizado Bayesiano

Aprendizado Bayesiano Aprendizado Bayesiano Marcelo K. Albertini 3 de Julho de 2014 2/1 Conteúdo Aprendizado Naive Bayes Exemplo: classificação de texto Redes Bayesiana Algoritmo EM Regressão probabiĺıstica 3/1 Classificador

Leia mais

Análise Sintática de Frases utilizando Gramáticas Livres de Contexto Probabilísticas

Análise Sintática de Frases utilizando Gramáticas Livres de Contexto Probabilísticas Universidade de São Paulo Mestrado em Ciência da Computação Instituto de Matemática e Estatística Disciplina MAC5725 Lingüística Computacional Análise Sintática de Frases utilizando Gramáticas Livres de

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 15 Incerteza Edirlei Soares de Lima Agentes Vistos Anteriormente Agentes baseados em busca: Busca cega Busca heurística Busca local Agentes

Leia mais

Modelos Bayesianos. Ernesto F. L. Amaral Magna M. Inácio

Modelos Bayesianos. Ernesto F. L. Amaral Magna M. Inácio 1 Modelos Bayesianos Ernesto F. L. Amaral Magna M. Inácio 09 de dezembro de 2010 Tópicos Especiais em Teoria e Análise Política: Problema de Desenho e Análise Empírica (DCP 859B4) Objetivos 2 Apresentar

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 09 Árvores de Decisão Max Pereira Classificação É a tarefa de organizar objetos em uma entre diversas categorias pré-definidas. Exemplos

Leia mais

UNIVERSIDADE FEDERAL DE UBERLÂNDIA - UFU

UNIVERSIDADE FEDERAL DE UBERLÂNDIA - UFU UNIVERSIDADE FEDERAL DE UBERLÂNDIA - UFU PLANO DE TRABALHO EM INICIAÇÃO CIENTÍFICA Desenvolvimento de toolbox de análise multivariada para o matlab. Uberlândia 28/09/10 IDENTIFICAÇÃO DO TRABALHO Título

Leia mais

2284-ELE/5, 3316-IE/3

2284-ELE/5, 3316-IE/3 INTELIGÊNCIA ARTIFICIAL 2284-ELE/5, 3316-IE/3 Universidade da Beira Interior, Departamento de Informática Hugo Pedro Proença, 2007/2008 Aprendizagem Supervisionada 2 Os vários algoritmos de Aprendizagem

Leia mais

Utilização do Corte Percentual na categorização de documentos da Web com o algoritmo Naive Bayes

Utilização do Corte Percentual na categorização de documentos da Web com o algoritmo Naive Bayes Utilização do Corte Percentual na categorização de documentos da Web com o algoritmo Naive Bayes José Alberto Sousa Torres/ Grinaldo Oliveira /Cláudio Alves Amorim * Em um momento em que é crescente a

Leia mais

Redes Bayesianas. Prof. Júlio Cesar Nievola PPGIa Escola Politécnica PUCPR

Redes Bayesianas. Prof. Júlio Cesar Nievola PPGIa Escola Politécnica PUCPR Redes Bayesianas Prof. Júlio Cesar Nievola PPGIa Escola Politécnica PUCPR Raciocínio com Incerteza Incerteza: qualidade ou estado de não ser conhecido com certeza Fontes de incerteza: Ignorância: qual

Leia mais

Roteiro. PCC142 / BCC444 - Mineração de Dados Classicadores Bayesianos. Representação dos Dados. Introdução

Roteiro. PCC142 / BCC444 - Mineração de Dados Classicadores Bayesianos. Representação dos Dados. Introdução Roteiro PCC142 / BCC444 - Mineração de Dados Classicadores Bayesianos Introdução Representação dos Dados Luiz Henrique de Campos Merschmann Departamento de Computação Universidade Federal de Ouro Preto

Leia mais

Avaliando Hipóteses. George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE

Avaliando Hipóteses. George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE Avaliando Hipóteses George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE Pontos importantes Erro da Amostra e Erro Real Como Calcular Intervalo de Confiança Erros de hipóteses Estimadores Comparando

Leia mais

Cap. 4 - Estimação por Intervalo

Cap. 4 - Estimação por Intervalo Cap. 4 - Estimação por Intervalo Amostragem e inferência estatística População: consiste na totalidade das observações em que estamos interessados. Nº de observações na população é denominado tamanho=n.

Leia mais

CC-226 Aula 07 - Estimação de Parâmetros

CC-226 Aula 07 - Estimação de Parâmetros CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições

Leia mais

Inteligência Artificial. Raimundo Osvaldo Vieira [DECOMP IFMA Campus Monte Castelo]

Inteligência Artificial. Raimundo Osvaldo Vieira [DECOMP IFMA Campus Monte Castelo] Inteligência Artificial Raimundo Osvaldo Vieira [DECOMP IFMA Campus Monte Castelo] Abordagem Estocástica para a Incerteza: Redes Bayesianas Usando a teoria das probabilidades, podemos determinar, frequentemente

Leia mais

Aprendizagem de Máquina - 2. Prof. Júlio Cesar Nievola PPGIa - PUCPR

Aprendizagem de Máquina - 2. Prof. Júlio Cesar Nievola PPGIa - PUCPR Aprendizagem de Máquina - 2 Prof. Júlio Cesar Nievola PPGIa - PUCPR Inteligência versus Aprendizado Aprendizado é a chave da superioridade da Inteligência Humana Para que uma máquina tenha Comportamento

Leia mais

Implementação de um sistema de validação estatística configurável de dados

Implementação de um sistema de validação estatística configurável de dados Implementação de um sistema de validação estatística configurável de dados Eduardo Dias Filho Supervisores: João Eduardo Ferreira e Pedro Losco Takecian 16 de novembro de 2014 Introdução Table of Contents

Leia mais

Algoritmos de Aprendizado

Algoritmos de Aprendizado Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron

Leia mais

lnteligência Artificial Raciocínio Probabilístico - Introdução a Redes Bayesianas

lnteligência Artificial Raciocínio Probabilístico - Introdução a Redes Bayesianas lnteligência Artificial Raciocínio Probabilístico - Introdução a Redes Bayesianas Referências Adicionais Russel e Norvig cap. 14 e 15 Pearl, Judea. Probabilistic Reasoning in Intelligent Systems: Network

Leia mais

Rafael Izbicki 1 / 38

Rafael Izbicki 1 / 38 Mineração de Dados Aula 7: Classificação Rafael Izbicki 1 / 38 Revisão Um problema de classificação é um problema de predição em que Y é qualitativo. Em um problema de classificação, é comum se usar R(g)

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Redes Bayesianas Mestrado/Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática Aprendizagem de Máquina

Leia mais

Classificação. Eduardo Raul Hruschka

Classificação. Eduardo Raul Hruschka Classificação Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada Combinação de Modelos

Leia mais

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33 Mineração de Dados Aula 6: Finalização de Regressão e Classificação Rafael Izbicki 1 / 33 Como fazer um IC para o risco estimado? Vamos assumir que ( X 1, Ỹ1),..., ( X s, Ỹs) são elementos de um conjunto

Leia mais

Descoberta de Conhecimento em Bancos de Dados - KDD

Descoberta de Conhecimento em Bancos de Dados - KDD Descoberta de Conhecimento em Bancos de Dados - KDD Professor: Rosalvo Ferreira de Oliveira Neto Disciplina: Inteligência Artificial Tópicos 1. Definições 2. Fases do processo 3. Exemplo do DMC 4. Avaliação

Leia mais

Figura 1: Metodologia de Reconhecimentos de Padrões desenvolvida na UFC

Figura 1: Metodologia de Reconhecimentos de Padrões desenvolvida na UFC Uma Solução para o GISSA: Análise Comparativa entre Algoritmos de Aprendizagem de Máquina Aplicados em um Dataset Relacionado ao Óbito Infantil Joyce Quintino Alves (1) ; Cristiano Lima da Silva (2); Antônio

Leia mais

Aprendizagem a partir de observações

Aprendizagem a partir de observações Aprendizagem a partir de observações Aprendizagem é essencial para ambientes desconhecidos, i.e., quando o projetista não prevê tudo Útil como um método de construção de sistemas i.e., expor o agente à

Leia mais

Aprendizagem de Máquina. Prof. Júlio Cesar Nievola PPGIA - PUCPR

Aprendizagem de Máquina. Prof. Júlio Cesar Nievola PPGIA - PUCPR Aprendizagem de Máquina Prof. Júlio Cesar Nievola PPGIA - PUCPR Introdução Justificativa Recente progresso em algoritmos e teoria Disponibilidade crescente de dados online Poder computacional disponível

Leia mais

Mineração de Dados. Análise e Seleção de Variáveis

Mineração de Dados. Análise e Seleção de Variáveis Mineração de Dados Análise e Seleção de Variáveis 1 Análise e Seleção de Variáveis Parte da uma área chamada de Redução de Dados Obtenção de uma representação reduzida em volume mas que produz resultados

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Modelos gráficos probabilísticos Redes bayesianas Modelos gráficos probabilísticos Os modelos gráficos probabilísticos utilizam representações diagramáticas das distribuições de

Leia mais

CEFET/RJ Inteligência Artificial (2018.1) Prof. Eduardo Bezerra Lista de exercícios 05

CEFET/RJ Inteligência Artificial (2018.1) Prof. Eduardo Bezerra Lista de exercícios 05 . CEFET/RJ Inteligência Artificial (2018.1) Prof. Eduardo Bezerra (ebezerra@cefet-rj.br) Lista de exercícios 05 Créditos: essa lista de exercícios contém a tradução dos exercícios retirados do livro texto

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem

Leia mais

CAPÍTULO 4 PROBABILIDADE PROBABILIDADE PPGEP Espaço Amostral e Eventos Espaço Amostral e Eventos UFRGS. Probabilidade.

CAPÍTULO 4 PROBABILIDADE PROBABILIDADE PPGEP Espaço Amostral e Eventos Espaço Amostral e Eventos UFRGS. Probabilidade. PROBABILIDADE CAPÍTULO 4 PROBABILIDADE UFRGS A Teoria das s estuda os fenômenos aleatórios. Fenômeno Aleatório: são os fenômenos cujo resultado não pode ser previsto exatamente. Se o fenômeno se repetir,

Leia mais

CLASSIFICADORES BAEYSIANOS

CLASSIFICADORES BAEYSIANOS CLASSIFICADORES BAEYSIANOS Teorema de Bayes 2 Frequentemente, uma informação é apresentada na forma de probabilidade condicional Probabilidade de um evento ocorrer dada uma condição Probabilidade de um

Leia mais

Inteligência nos Negócios (Business Inteligente)

Inteligência nos Negócios (Business Inteligente) Inteligência nos Negócios (Business Inteligente) Sistemas de Informação Sistemas de Apoio a Decisão Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 6) Fundamentação da disciplina Analise de dados Decisões

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação (Machine Learning) Aula 01 Motivação, áreas de aplicação e fundamentos Max Pereira Nem todo conhecimento tem o mesmo valor. O que torna determinado conhecimento mais importante que

Leia mais

Classificadores. André Tavares da Silva.

Classificadores. André Tavares da Silva. Classificadores André Tavares da Silva andre.silva@udesc.br Reconhecimento de padrões (etapas) Obtenção dos dados (imagens, vídeos, sinais) Pré-processamento Segmentação Extração de características Obs.:

Leia mais

Mineração de Dados em Biologia Molecular

Mineração de Dados em Biologia Molecular Mineração de Dados em Biologia Molecular André C.. L. F. de Carvalho Monitor: Valéria Carvalho lanejamento e Análise de Experimentos rincipais tópicos Estimativa do erro artição dos dados Reamostragem

Leia mais

Probabilidades. Wagner H. Bonat Elias T. Krainski Fernando P. Mayer

Probabilidades. Wagner H. Bonat Elias T. Krainski Fernando P. Mayer Probabilidades Wagner H. Bonat Elias T. Krainski Fernando P. Mayer Universidade Federal do Paraná Departamento de Estatística Laboratório de Estatística e Geoinformação 06/03/2018 WB, EK, FM ( LEG/DEST/UFPR

Leia mais

Pentaho IoT Analytics Open Source Trilha IoT

Pentaho IoT Analytics Open Source Trilha IoT Pentaho IoT Analytics Open Source Trilha IoT Marcio Junior Vieira CEO & Data Scientist, Ambiente Livre Marcio Junior Vieira Mini-cv 18 anos de experiência em informática, vivência em desenvolvimento e

Leia mais

Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy

Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy Proceeding Series of the Brazilian Society of pplied and Computational Mathematics, Vol., N., 0. Trabalho apresentado no XXXV CNMC, Natal-RN, 0. Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy

Leia mais

WEKA: Prática Carregando a base de dados no Weka

WEKA: Prática Carregando a base de dados no Weka WEKA: Prática 2 1. Introdução O objetivo desta prática é utilizar a ferramenta Weka para comparar dois algoritmos de aprendizagem de máquina em um problema de detecção de SPAM. Os algoritmos a serem comparados

Leia mais

6. QUADRIMESTRE IDEAL 7. NÍVEL Graduação 8. Nº. MÁXIMO DE ALUNOS POR TURMA

6. QUADRIMESTRE IDEAL 7. NÍVEL Graduação 8. Nº. MÁXIMO DE ALUNOS POR TURMA Universidade Federal do ABC Rua Santa Adélia, 166 - Bairro Bangu - Santo André - SP - Brasil CEP 09.210-170 - Telefone/Fax: +55 11 4996-3166 1. CÓDIGO E NOME DA DISCIPLINA MC5004 - APRENDIZADO DE MÁQUINA

Leia mais

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz

Leia mais

Processamento digital de imagens

Processamento digital de imagens Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 27 de maio de 2016 Reconhecimento de objetos Padrão: arranjo

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal

Leia mais

DCBD. Avaliação de modelos. Métricas para avaliação de desempenho. Avaliação de modelos. Métricas para avaliação de desempenho...

DCBD. Avaliação de modelos. Métricas para avaliação de desempenho. Avaliação de modelos. Métricas para avaliação de desempenho... DCBD Métricas para avaliação de desempenho Como avaliar o desempenho de um modelo? Métodos para avaliação de desempenho Como obter estimativas confiáveis? Métodos para comparação de modelos Como comparar

Leia mais

Retomada aula. Introdução sobre Inteligência Artificial Abordagem sobre Agentes Resolução de problemas estratégias de busca - apresentação trabalhos

Retomada aula. Introdução sobre Inteligência Artificial Abordagem sobre Agentes Resolução de problemas estratégias de busca - apresentação trabalhos Retomada aula Introdução sobre Inteligência Artificial Abordagem sobre Agentes Resolução de problemas estratégias de busca - apresentação trabalhos 1 Estratégias de busca Algoritmos de busca local e otimização:

Leia mais

Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si

Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si Classificação de Dados Os modelos de classificação de dados são preditivos, pois desempenham inferências

Leia mais

Combinação de Classificadores (fusão)

Combinação de Classificadores (fusão) Combinação de Classificadores (fusão) André Tavares da Silva andre.silva@udesc.br Livro da Kuncheva Roteiro Sistemas com múltiplos classificadores Fusão por voto majoritário voto majoritário ponderado

Leia mais

2 Sentiment Analysis 2.1

2 Sentiment Analysis 2.1 2 Sentiment Analysis 2.1 Definição do Problema Sentiment Analysis é um problema de categorização de texto no qual deseja-se detectar opiniões favoráveis e desfavoráveis com relação a um determinado tópico

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação (Machine Learning) Aula 07 Classificação com o algoritmo knn Max Pereira Classificação com o algoritmo k-nearest Neighbors (knn) Como os filmes são categorizados em gêneros? O que

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 14 Support Vector Machines (SVM) 2016.1 Prof. Augusto Baffa Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest

Leia mais

Gibbs Sampler para ANOVA e Misturas

Gibbs Sampler para ANOVA e Misturas Gibbs Sampler para ANOVA e Misturas Renato Assunção - DCC, UFMG Outubro de 014 1 Modelo ANOVA: componentes de variância Suponha que temos K grupos ou classes. Em cada grupo, temos um certo número de dados

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL Figura: Capa do Livro Russell, S., Norvig, P. Artificial Intelligence A Modern Approach, Pearson, 2009. Universidade Federal de Campina Grande Unidade Acadêmica de Sistemas e Computação Curso de Pós-Graduação

Leia mais

6 Atributos. A dívida da empresa subiu.

6 Atributos. A dívida da empresa subiu. 6 Atributos Para buscar o sentimento de um texto automaticamente precisamos encontrar boas pistas ao longo do discurso. Uma grande variedade de palavras e expressões possui conotação positiva ou negativa,

Leia mais

TÍTULO: IDENTIFICAÇÃO DE CARACTERES APRESENTADOS A UMA CÂMERA POR MEIO DO MOVIMENTO DOS DEDOS DA MÃO DE UM SER HUMANO

TÍTULO: IDENTIFICAÇÃO DE CARACTERES APRESENTADOS A UMA CÂMERA POR MEIO DO MOVIMENTO DOS DEDOS DA MÃO DE UM SER HUMANO Anais do Conic-Semesp. Volume 1, 2013 - Faculdade Anhanguera de Campinas - Unidade 3. ISSN 2357-8904 TÍTULO: IDENTIFICAÇÃO DE CARACTERES APRESENTADOS A UMA CÂMERA POR MEIO DO MOVIMENTO DOS DEDOS DA MÃO

Leia mais

Chamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω.

Chamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω. PROBABILIDADE 1.0 Conceitos Gerais No caso em que os possíveis resultados de um experimento aleatório podem ser listados (caso discreto), um modelo probabilístico pode ser entendido como a listagem desses

Leia mais

Classificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka

Classificação: Árvores de Decisão e k-nn. Eduardo Raul Hruschka Classificação: Árvores de Decisão e k-nn Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Árvores de Decisão K-Vizinhos

Leia mais

27/02/2014. Tratamento de Incertezas TIC Aula 0. Conteúdo Apresentação da Disciplina. Motivação Programa da disciplina

27/02/2014. Tratamento de Incertezas TIC Aula 0. Conteúdo Apresentação da Disciplina. Motivação Programa da disciplina Tratamento de Incertezas TIC-00.176 Aula 0 Conteúdo Apresentação da Disciplina Professor Leandro Augusto Frata Fernandes laffernandes@ic.uff.br Material disponível em http://www.ic.uff.br/~laffernandes/teaching/2014.1/tic-00.176

Leia mais

Seleção de Atributos 1

Seleção de Atributos 1 Seleção de Atributos 1 Tópicos Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Seleção de atributos antes do aprendizado Benefícios Abordagens automáticas

Leia mais

Reconhecimento de Padrões/Objetos

Reconhecimento de Padrões/Objetos Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 12 de Gonzales Reconhecimento de Padrões (imagem) Objetivo: Interpretar o conteúdo da imagem através de um mapeamento

Leia mais

Plano. Aspectos Relevantes de HMMs. Teoria de HMMs. Introdução aos Modelos Escondidos de Markov

Plano. Aspectos Relevantes de HMMs. Teoria de HMMs. Introdução aos Modelos Escondidos de Markov Plano Esta apresentação é para pessoas sem conhecimento prévio de HMMs Introdução aos Modelos Escondidos de Markov 2004 Objetivos: Ensinar alguma coisa, não tudo (Visão geral, sem muitos detalhes). Tentar

Leia mais

Computação Evolucionária Aplicada ao Problema de Seleção de Características em Text Mining

Computação Evolucionária Aplicada ao Problema de Seleção de Características em Text Mining Computação Evolucionária Aplicada ao Problema de Seleção de Características em Text Mining João R. Carrilho Jr., Marco Aurélio C. Pacheco ICA: Applied Computational Intelligence Laboratory Department of

Leia mais

Estatística: Aplicação ao Sensoriamento Remoto SER ANO Avaliação de Classificação

Estatística: Aplicação ao Sensoriamento Remoto SER ANO Avaliação de Classificação Estatística: Aplicação ao Sensoriamento Remoto SER 204 - ANO 2018 Avaliação de Classificação Camilo Daleles Rennó camilo@dpi.inpe.br http://www.dpi.inpe.br/~camilo/estatistica/ Classificação e Incerteza

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Conceitos básicos Classificação não-supervisionada:

Leia mais

Oportunidades na Ciência da Computação: Uma visão na perspectiva de Ciência de Dados

Oportunidades na Ciência da Computação: Uma visão na perspectiva de Ciência de Dados Oportunidades na Ciência da Computação: Uma visão na perspectiva de Ciência de Dados CEFET/RJ Eduardo Ogasawara eogasawara@ieee.org http://eic.cefet-rj.br/~eogasawara Ciência da Computação O que é Tecnologia

Leia mais

Reconhecimento de Padrões em Classificadores Comparação de Técnicas e Aplicações

Reconhecimento de Padrões em Classificadores Comparação de Técnicas e Aplicações 4º Workshop de Tecnologia Adaptativa WTA 2010 63 Reconhecimento de Padrões em Classificadores Comparação de Técnicas e Aplicações R. L. Stange, J. J. Neto Resumo O reconhecimento de padrão utiliza diferentes

Leia mais

Lista de Exercícios - Capítulo 8 [1] SCC Inteligência Artificial 1o. Semestre de Prof. João Luís

Lista de Exercícios - Capítulo 8 [1] SCC Inteligência Artificial 1o. Semestre de Prof. João Luís ICMC-USP Lista de Exercícios - Capítulo 8 [1] SCC-630 - Inteligência Artificial 1o. Semestre de 2011 - Prof. João Luís 1. Seja breve na resposta às seguintes questões: (a) o que você entende por Aprendizado

Leia mais

MCZA Processamento de Linguagem Natural Classificação de textos

MCZA Processamento de Linguagem Natural Classificação de textos MCZA017-13 Processamento de Linguagem Natural Classificação de textos Prof. Jesús P. Mena-Chalco jesus.mena@ufabc.edu.br 1Q-2018 1 Bibliografia Daniel Jurafsky & James H. Martin. Speech and language processing:

Leia mais

Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Probabilidade Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Introdução Experimento aleatório Definição Qualquer experimento cujo resultado

Leia mais

Estatística Descritiva

Estatística Descritiva C E N T R O D E M A T E M Á T I C A, C O M P U T A Ç Ã O E C O G N I Ç Ã O UFABC Estatística Descritiva Centro de Matemática, Computação e Cognição March 17, 2013 Slide 1/52 1 Definições Básicas Estatística

Leia mais

1 Classificadores Bayseanos Simples

1 Classificadores Bayseanos Simples Aula 12 - Classificadores Bayseanos Curso de Data Mining Sandra de Amo Classificadores Bayseanos são classificadores estatísticos que classificam um objeto numa determinada classe baseando-se na probabilidade

Leia mais

CC-226 Introdução à Análise de Padrões

CC-226 Introdução à Análise de Padrões CC-226 Introdução à Análise de Padrões Apresentação do Curso Carlos Henrique Q. Forster 1 1 Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica 25 de fevereiro de 2008 C. H. Q. Forster

Leia mais

Implementação de um Modelo para Previsão de Evasão Escolar no IFSULDEMINAS

Implementação de um Modelo para Previsão de Evasão Escolar no IFSULDEMINAS 6ª Jornada Científica e Tecnológica e 3º Simpósio de Pós-Graduação do IFSULDEMINAS 04 e 05 de novembro de 2014, Pouso Alegre/MG Implementação de um Modelo para Previsão de Evasão Escolar no IFSULDEMINAS

Leia mais

Les Estatística Aplicada II AMOSTRA E POPULAÇÃO

Les Estatística Aplicada II AMOSTRA E POPULAÇÃO Les 0407 - Estatística Aplicada II AMOSTRA E POPULAÇÃO AULA 1 04/08/16 Prof a Lilian M. Lima Cunha Agosto de 2016 Estatística 3 blocos de conhecimento Estatística Descritiva Levantamento e resumo de dados

Leia mais

Reconhecimento de Padrões

Reconhecimento de Padrões Reconhecimento de Padrões André Tavares da Silva andre.silva@udesc.br Kuncheva pg. 8 a 25 (seções 1.3 e 1.4) Roteiro da aula Cálculo do erro de um classificador Técnicas de treinamento, avaliação e teste

Leia mais

Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Probabilidade Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Experimento aleatório Definição. Qualquer experimento cujo resultado não pode

Leia mais

Fabrício Jailson Barth BandTec

Fabrício Jailson Barth BandTec Introdução à Inteligência Artificial Fabrício Jailson Barth fabricio.barth@bandtec.com.br BandTec 1 o semestre de 2012 Objetivos e Sumário O que é Inteligência Artificial (IA)? Objetivos da IA. Influência

Leia mais