Classificação de Notas de Vinhos Utilizando Métodos de Mineração de Dados Leandro Takeshi Hattori

Tamanho: px
Começar a partir da página:

Download "Classificação de Notas de Vinhos Utilizando Métodos de Mineração de Dados Leandro Takeshi Hattori"

Transcrição

1 Classificação de Notas de Vinhos Utilizando Métodos de Mineração de Dados Leandro Takeshi Hattori I. INTRODUÇÃO Com a popularização dos aspectos luxuosos e benéficos do vinho o aumento do consumo deste produto no mundo inteiro bem como sua produção está ascendente. O aumento de produção mundial de vinho é refletido em pesquisas onde mostra em Portugal, entre os anos de 1997 á 2007, um aumento de 36% de produção e tem se mantido constante. Este produto agrega maior importância para Portugal dado sua alta taxa de exportação, onde 45% da sua produção é voltada para exportação e representando 11% do Valor Acrescentado Bruto (VAB) das industrias alimentares e bebidas [1]. Realça-se o aumento de 22% de produção de vinho na região do Minho. E que nos últimos anos, é predominante a produção de vinhos Tintos/Rosados, os quais representam 70% da produção. Aumento de produção de 0,3% do mercado mundial do vinho em relação ao ano de 2013 [2]. Desde então, diversas pesquisas tem sido voltadas para melhorar o processo de sua fabricação. Uma das partes fundamentais do processo de fabricação do vinho é a certificação de sua qualidade. Principalmente quando é considerado o vinho um bem de luxo, e sua qualidade é essencial para o marketing, venda e definição de preços. A etapa de avalidação da qualidade também evita a venda de falsificações e assegura a qualidade dos vinhos. Existem organizações que são responsáveis por esta avaliação como, por exemplo, a Comissão de Viticultura da Região dos Vinhos Verdes (CVRVV) [3], que avalia os vinhos do noroeste de Portugal. Comumente, os testes para a certificação dos vinhos são feitos a partir da coleta de dados físicos-químicos por laboratórios especializados que possuem censores para capturar características do vinho como, densidade, ph, álcool, entre outras. Entretanto, no processo de certificação do vinho ainda existe uma forte dependência da avaliação sensorial, o qual é feita por especialistas (enólogos). Em razão, desta dependência e da quantidade de avaliação que um profissional pode realizar, comparado a avaliações computadorizadas do processo anterior, e dado ao aumento de produção deste produto já citados. O fluxo do processo pode passar a depender muito desta etapa e perder muito de sua eficiência. Com o advento de técnicas de extração de informações de grande volume de dados, possibilitou que diversas informações fosses extraídas deste montante de dados. Os quais, provavelmente nunca seriam descobertos dado a tamanha complexidade de sua análise. Existem diversas informações que podem ser extraídas deste grande volume de dados, e que pode retornar uma valiosa informação sobre o processo observado. Uma das técnicas desenvolvidas para solucionar este problema é a Mineração de Dados (MD), o qual permite extrair informações de alto nível a partir de dados brutos. Dentro desta área de pesquisa existem diversos métodos como os métodos de classificação, o qual permite dado uma entrada apresentar uma classe. Objetivo O objetivo deste trabalho é classificação de notas de vinhos da região do noroeste de Portugal e aplicar outros conceitos desenvolvidos na disciplina de Mineração de Dados (MD) utilizando como base as propriedades físico-químicas. Justificativa Em razão, do baixo conhecimento sobre o paladar [4], visão e olfato relacionados ao gosto humano, armazenamento de uma grande quantidade de dados físico-químicos e aos crescentes investimentos em novas tecnologias pesquisas nesta área se torna um interessante desafio aberto. Divisão do Trabalho Este trabalho segue apresentando o contexto dos métodos de mineração de dados utilizados neste trabalho na seção II. O método de balanceamento proposta é apresentado na seção III e na seção IV é apresentado o dataset utilizado para os testes. Na seções V e VI são apresentados os resultados obtidos com a aplicação weka e os scripts da linguagem R. Na seção VII são apresentadas algumas conclusões. A. Associação: Apriori II. MÉTODOS DE MINERAÇÃO DE DADOS Os algoritmos de associação estão comumente ligados a bancos que armazenam grande quantidade de dados, e que desejam saber se existem conjuntos de itens freqüentes. O algoritmo de associação Apriori começa com a contagem dos itens para determinar suas respectivas freqüências L k. Posteriormente, na iteração k, são utilizados os itens frequente de L k 1 para gerar os conjuntos de itens. Os parâmetros que controlam o algoritmo são o suporte mínimo (minsup) que define a fração mínima de transações que satisfaz a união dos itens. E, a confiança mínima, o qual define uma c% mínima de transações.

2 1 Clusterização: K-means Hierárquico e Camadas A clusterização é um processo de agrupamento por busca explorar características semelhantes entre amostras, separando-os por categoria ou grupos. Nesta técnica não existe a necessidade de um treinamento supervisionado dominando assim essa classe de métodos como não supervisionados. O métodos de K-means ou K-médio é um dos algoritmos clusterização que tem o objetivo de encontrar a melhor divisão P dados em K grupos, e a soma das distancias entre os dados de cada grupo e seus respectivos centro seja a menor possível [5]. Inicialmente, este algoritmo gera P pontos aleatórios nos espaço para os K grupos e calcula-se as distâncias dos vetores de cada K grupo. Posteriormente cada ponto será designado ao centro mais próximo. Assim, como os grupos atualizados em cada K grupo será calculada seus respectivos vetores médios. E este processo continua sucessivamente até que não tenha mais materializações ou que não seja tão significantes para a resposta. A clusterização hieráquico ocorre em sucessivos agrupamentos, o qual cria uma estrutura de diagrama em árvore. Os nós folhas representam os elementos e o nó raíz representa o agrupamento apenas de um elemento. Quanto mais interno for o galho da árvore mais agrupamentos irão existir e inversamente a quantidade de elementos será contidos em grupo [6]. O algoritmo de clusterização baseado por densidade tem o objetivo de determinar grupos a partir de objetos com alta densidade para baixas densidades [7]. Um dos algoritmos comumente conhecido é o algoritmo DBSCAN, pricipalmente pela sua complexidade computacional ser O(n 2 ). Árvore de Decisão e Floresta Aleatória Árvore de Decisão (AD) é um método de inferência, que prediz uma classe dado um conjunto de atributos por meio de uma regra geral produzida por meio de um treinamento. Os nós que compõem uma árvore consiste em um nó raiz, os galhos e as folhas. O nó raíz é o primeiro nó da árvore e é conectado com outros nós internos da árvore (galho ou folha). Os nós galhos podem estar conectados com 1 ou mais outros nós galho ou com um nó folha. Cada nó galho e raiz representa um determinado teste de um atributo, o qual vai indicar para qual nó mais interno da árvore que ele deve seguir até que chegue em um nó folha. O nó folha corresponde é o ultimo nó e representa os valores do atributo-classe. Um dos algoritmos comumente utilizados é o J48 [8], o qual gera árvores de classificação a partir de um conjunto de dados de treinamento, sendo que, a cada nó, o algoritmo escolhe um atributo que mais eficientemente subdivide o conjunto das amostras em subconjuntos homogêneos e caracterizados por sua classe. O critério é o ganho de informação obtida na escolha do atributo para subdivisão. Diferentemente do algoritmo de AD, nas Florestas Aleatórias (FA) o conjunto de dados é dividido em diversos subconjuntos menores. Os subconjuntos são formados por um método de amostragem denominado bootstrap [9], o qual funciona por meio de reposição. A partir, de cada subconjunto é criada respectivamente uma árvore de decisão e esta coleção de árvores forma a floresta. Na classificação deste algoritmo são consideradas todas as árvores do conjunto. E, para definir em qual classe se encontra o conjunto de atributos de entrada é feito uma votação. Naive Bayes O algoritmo de Naive Bayes (NB) é um modelo probabilístico de classificação com uma abordagem simples e rápida. Este modelo considera que os atributos são multualmente independentes e possui uma abordagem bayesiana [10]. Neste algoritmo a probabilidade de um evento H dada a evidência E é representada pela equação: P r[h E] = P r[e H]P r[h] P r[e], onde H pode ser representado por uma classe e E os valores dos atributos previsores de 1 até N. Logo, pode ser representado pela equação 2. P r[h E] = P r[e 1 H]...P r[e N H]P r[h] (2) P r[e] Redes Neurais Artificiais As Redes Neurais Artificiais (RNA) são aplicadas a diversas áreas, este modelo é muito utilizado para apresentar uma solução para problemas muito complexos de classificação e reconhecimento de padrões, onde não existe modelo matemático definido e grande quantidade de informação. As RNAs mais comuns como Multilayer Perceptron (MPL) e Radial Basis Function (RBF) são redes feedfoward, o qual é composta por um conjunto de nodos conforme apresentado na figura 1. Estas redes dividem em 3 camadas, a camada de entrada que recebe os valores de entrada a partir de alguma fonte e faz a interface com a camada intermediária por meio de uma conexão. Cada conexão possui um valor que é multiplicado pelo valor passado, denominado peso sináptico. O nó soma todos os valores das conexões recebidas, e um cálculo é realizado sobre o valor (funções sigmóide,tag,log, gaussiana), variando de acordo com o modelo de RNA utilizada. Estes são repassados para os nós das camadas seguintes até que chega no(s) nós da camada de saída. (1)

3 2 Figura 1. Modelo comum de uma rede neural artificial (RNA). Onde, X representa os parâmetros na camada de entrada, a multiplação dos valores pelos pesos sinápticos (W jh ), os ϕ H neurônios da camada intermediária e Y representado as saídas dos neurônios da camada de saída. Uma RNA pode ter uma aprendizado supervisionado e não supervisionado, ambas devem aprender de forma a atingir uma forma generalizada. As redes MLPs vieram do estudo do modelo denominado Perceptron, onde o neurônio da camada de entrada se conecta diretamente a cada de saída, entretanto este modelo é aplicável apenas para problemas linearmente separáveis. Para solucionar tal problema foi adicionado uma camada intermediária ou camada escondida entre a camada de saída e a camada de entrada. A camada escondida deve conter ao menos uma camada. As funções de ativação de redes MPL são não-lineares como, por exemplo, as funções sigmoidais. O treinamento das redes MLPs é divido em duas etapas a etapa da propagação e a retropropagação da rede. Na propagação a camada de entrada recebe os valores de treinamento T = x(n), d(n), onde x(n) é o conjunto de entrada e d(n) é a saída esperada. Para o cálculo do valor da saída de cada neurônio é utilizado a seguinte fórmula: v j = m w ji x i + b (3) i 1, onde w ji são os pesos de cada ligação entre o neurônio j com o neurônio i, x i é o valor recebido pelo neurônio e b é o bias. Para o cálculo da saída y j da unidade k é feito o seguinte cálculo, considerando uma função sigmóide teremos: y = f(v) = e ( αv ), o qual α é uma constante de momentun e v é a saída do neurônio após aplicado a equação 3. Na segunda etapa o treinamento é realizado de forma supervisionada, o qual permite que a rede possa entender o quanto foi o erro e ajustar para tentar minimizar o erro de classificação. A estrutura das redes RBF é composta por 3 camadas. A primeira camada é responsável por fazer a receber os dados e fazer a conexão com a camada intermediária. A segunda camada também denominada camada escondida é responsável por transformação não linear nos dados, o qual seu funcionamento é explicado pelo teorema de Cover [?], Dado que um problema que não é linearmente separável pode ser de forma probabilística transformado em um problema linearmente separável. E a terceira camada ou camada da saída realiza a transformação do espaço vetorial interno em uma saída, aplicando um processo linear. Para evitar o problema de overfitting e problemas de de presença de ruídos é desejável que a quantidade de neurônios na camada escondida seja menor que o número de amostras do conjunto de treinamento. As funções das redes RBF são radiais, os quais possuem uma característica de uma resposta decrescente ( ou crescente) monotonicamente em relação ao um ponto central. As funções mais conhecidas desta classe são: gaussiana, multi-quadrátricas e multi-quadráticas inversas. A escolha de cada função pode variar de acordo com o conhecimento dos dados. Considerando uma função Gaussiana, temos a função de base radial obtemos a seguinte relação: y i = F j (x) = H h=1 w jh exp( 1 2σh 2 x s c h 2 ) (5), onde w é o peso sináptico entre o neurônio h da camada escondida e do neurônio j da camada de saída. H é a quantidade de neurônios da camada escondida. x e c são vetores, onde x contém os dados de entrada do conjunto de treinamento e c os valores dos centros de todos os neurônios da rede. σ é a largura da função radial. O treinamento das redes RBFs são divididas em 2 etapas. A primeira etapa consiste em ajustar os parâmetros da função (4)

4 3 radial como, definição de centros e definição da largura das funções radiais. A definição dos centros podem ser distribuídos de forma aleatória ou aplicando algum algoritmo de pré-processamento de dados como Mínimos Quadráticos ou K-means. A definição da largura das funções é feita geralmente com ajustes empírico e de forma heurísticos. A segunda etapa é aplicado o ajuste de peso da camada de saída, onde a função de ativação é linear. Nestas condições o treinamento é supervisionado e os parâmetros da camada escondida não devem mudar. III. BALANCEAMENTO: RESAMPLE O balanceamento de carga utilizando o método resample é baseado em uma determinada probabablidade. O balanceamento é utilizado em dois casos, quando existe uma classe com poucas amostras também chamada de classe minoritária. Ao final do balanceamento a quantidade de dados pode ser próxima a original ou próximo da distribuição balanceada. E ele pode ser aplicado nos apenas nos dados de treinamento ou em todo dataset. IV. DATASET: VINHO Os dados retirados dos vinhos foram coletados da região noroeste de Portugal entre o ano de 2004 e As notas das certificações de cada amostragem foram feitas pela CVRVV, que tem o objetivo de melhorar a produção do vinho nesta região. Todos os atributos físico-químicos foram coletados a partir de um software (ilab), que coleta as informações a partir de censores, e cada amostragem foi inserida no dataset (.csv). Para não haver descarte de diversas amostras neste dataset foram considerados os testes físico-químicos mais comuns. As notas das certificações de cada amostragem foram feitas pela CVRVV, que tem o objetivo de melhorar a produção do vinho nesta região. As distribuições das quantidades de amostras dos conjuntos de treinamentos podem ser observados na figura 2. Figura 2. Variação das classes no dataset de vinhos brancos e tintos. O dataset de vinhos brancos é constituído de 4898 exemplos, enquanto o dataset de vinhos tintos possuem apenas 1599 amostras. Em relação aos testes sensoriais, cada amostra foi testada por pelo menos 3 enólogos e a nota é dada pela mediana destas a avaliações. Os enólogos classificaram os vinhos entre 0 (muito ruim) e 10 (ótimo). todos os atributos do dataset são valores numéricos, com exceção ao atributo etiqueta. A média e a mediana dos atributos numéricos de ambos datasets são apresentadas na tabela I. Tabela I DADOS ESTATÍSTICOS DAS PROPRIEDADES FÍSICO-QUÍMICAS DOS VINHOS, O QUAL AS MÉDIAS E MEDIANAS DO VINHO BRANCO E DO VINHO TINTO SÃO REPRESENTADAS REPESPECTIVAMENTE POR (B) E (T). Atributo Média(B) Média(T) Mediana(B) Mediana(T) ácido fixo (g(ácido tartárico)/dm 3 ) acidez volátil (g(ácido acético)/dm 3 ) ácido cítrico (g/dm 3 ) açúcar residual (g/dm 3 ) álcool (vol.%) cloretos (g(cloretos de sódio)/dm 3 ) dióxido de enxofre livre (mg/dm 3 ) densidade (g/cm 3 ) total de dióxido de enxofre (mg/dm 3 ) ph sulfatos (g(sulfato de potássio)/dm 3 )

5 4 V. RESULTADOS E DISCUSSÃO Este trabalho foi realizado em duas etapas, inicialmente foi realizada a tarefa de classificação utilizando o conjunto de dados de vinhos brancos e posteriormente foi utilizado os dados de vinhos tintos. Foram selecionadas algumas das principais técnicas de classificação propostas na literatura Naive Bayes, Redes Neurais, Árvore de Decisão Floresta Aleatória. Para obter os resultados foi aplicado a validação cruzada com 10 subconjunto com 10 repetições e nos experimentos com balanceamento, primeiramente foi aplicado o algoritmo de RESAMPLE em todo dataset para então fazer a divisão dos subconjunntos. Para medir o desempenho dos métodos de classificação foram utilizadas o cálculo de precisão, sensibilidade (recall), f-meansure e a área abaixo da curva ROC (AUC - Area Under Curve). A medida AUC especifica a probabilidade de um exemplo positivo ser ranqueado acima de um exemplo negativo. Quanto maior a área, melhor é o desempenho médio do classificador. A tabela II apresenta os resultados dos 5 algoritmos (Naive Bayes, Multi Layer Perceptron (MLP), Radial Basis Function (RBF), Árvore de Decisão (J48) e Floresta Aleatória (randomforest) ) de classificação utilizando o dataset de vinhos brancos. Na avaliação proposta o algoritmo Naive Bayes foi o que teve o pior desempenho em todos os aspectos avaliados. Os dois algoritmos de RNAs (MLP e RBF) obtiveram o comportamento parecido, entretanto em nenhum dos aspectos superou o melhor algoritmo de classificação deste trabalho. O algoritmo J48 teve um desempenho superior em relação aos classificadores de RNAs, entretanto podemos observar que quando consideramos o recall este algoritmo perde desempenho. Em contra partida, o algoritmo de randomforest foi o que obteve o melhor resultado considerando todos os aspectos de avaliação dos outros algoritmos de classificação. Tabela II MÉDIA DOS RESULTADOS DE PRECISÃO, RECALL, F-MENSURE E AREA UNDER ROC DOS MÉTODOS DE MINERAÇÃO DE DADOS SEM A APLICAÇÃO DO MÉTODO DE BALANCEMENTO COM O DATASET DE VINHOS BRANCOS. Método Precision (%) Recall (%) F-meansure (%) Area under ROC NaiveBayes 52 33,7 40,8 57,3 MLP(11) 55,1 72,2 62,5 65,8 RBF(11) 55,3 72,4 62,7 66,7 J48 62,6 63,8 63,2 68,1 RandomForest 63,8 77,8 70,1 78,6 Em relação a avaliação dos métodos de classificação utilizando o dataset de vinhos tinto, o qual é apresentada na tabela III, podemos observar que em todos os algoritmos de classificação temos uma melhora no aspecto geral do atributo área abaixo da curva ROC. Em relação a comparação dos métodos, o algoritmo de Naive Bayes teve uma melhora entretanto é o algoritmo no aspecto geral de desempenho inferior. Nos algoritmos de RNAs, o classificador MLP teve um melhor desempenho em relação ao algoritmo de RBF. O algoritmo J48 superou todos os outros algoritmos de classificação ficando apenas abaixo do algoritmo randomforest, o qual novamente mostrou-se bastante robusto. Tabela III MÉDIA DOS RESULTADOS DE PRECISÃO, RECALL, F-MENSURE E AREA UNDER ROC DOS MÉTODOS DE MINERAÇÃO DE DADOS SEM A APLICAÇÃO DO MÉTODO DE BALANCEMENTO COM O DATASET DE VINHOS TINTO. Método Precision (%) Recall (%) F-meansure (%) Area under ROC NaiveBayes 55, MLP RBF ,1 74,4 J48 60, ,4 78 RandomForest 67 70,2 68,5 86,6 Na tabela IV é apresentado a quantidade de amostras em cada classe antes e depois do balanceamento das classes com o método resample (seção III). Podemos observar que no dataset de vinhos brancos não houve uma mudança brusca na quantidade em cada classe do dataset. As classes com nota 3, 4, 5 e 6 tiveram aumento de 4, 10, 22 e 22 respectivamente. Entretanto, as classes 7, 8 e 9 tiveram um aumento 39, 17 e 2 amostras. Tabela IV DISTRIBUIÇÃO DAS CLASSES ANTES E DEPOIS DO BALACEAMENTO. Nota Balanceamento Não(B) Sim(B) Não(T) Sim(T) Os resultados dos métodos de classificação aplicados com o dataset de vinhos brancos e tintos balanceados são apresentados nas respectivas tabelas V e VI. Os resultados com o dataset balanceado tiveram resultados superiores nos métodos J48 e

6 5 randomforest comparado aos resultados da tabela II. Nos outros métodos avaliados tiveram um aumento nos atributos precisão, e inversamente acontece atributo recall. Tabela V MÉDIA DOS RESULTADOS DE PRECISÃO, RECALL, F-MENSURE E AREA UNDER ROC DOS MÉTODOS DE MINERAÇÃO DE DADOS POSTERIOMENTE APLICADO O MÉTODO DE BALANCEMENTO RESAMPLE COM O DATASET DE VINHO BRANCO. Método Precision (%) Recall (%) F-meansure (%) Area under ROC NaiveBayes 54,8 32,3 40,6 58,4 MLP 57,4 69,6 62,6 67,5 RBF 53,2 64,9 58,8 62,3 J48 77,8 79,4 78,6 83,2 RandomForest 79,5 88,6 83,8 92,9 Tabela VI MÉDIA DOS RESULTADOS DE PRECISÃO, RECALL, F-MENSURE E AREA UNDER ROC DOS MÉTODOS DE MINERAÇÃO DE DADOS POSTERIOMENTE APLICADO O MÉTODO DE BALANCEMENTO RESAMPLE COM O DATASET DE VINHO TINTO. Método Precision (%) Recall (%) F-meansure (%) Area under ROC NaiveBayes MLP RBF J RandomForest VI. R: SCRIPT E RESULTADOS Os atributos Pwinequality.white e o PwinequalityDiscreto contém respectivamente o dataset dos dados físico-químicos e p dataset binarizado no software Weka 3.7 utilizando a biblioteca NumericToBinary. Figura 3. Procedimentos para executar o algoritmo de Clusterização por Densidade na linguagem R. Figura 4. Procedimentos para executar o algoritmo de Clusterização por Hierarquico na linguagem R.

7 6 Figura 5. Procedimentos para executar o algoritmo de Clusterização por K-means na linguagem R. Figura 6. Diagrama de Árvore para executar o algoritmo de Clusterização por Hierarquico na linguagem R. Figura 7. Diagrama de Árvore para executar o algoritmo de Clusterização por Hierarquico na linguagem R com corte. Figura 8. Procedimentos para executar o algoritmo de Associação apriori na linguagem R (Pacote: arules).

8 7 Figura 9. Procedimentos para gerar regras específicas para apriori. Figura 10. Procedimentos para remover redundâncias específicas para apriori. Figura 11. Procedimentos para executar o algoritmo de Classificação Naive Bayes na linguagem R. Figura 12. Procedimentos para executar o algoritmo de Classificação de Árvore de Decisão na linguagem R (Pacote: party).

9 8 Figura 13. Procedimentos para executar o algoritmo de Classificação de Árvore de Decisão na linguagem R (Pacote: rpart). Figura 14. Procedimentos para executar o algoritmo de Classificação de Floresta Aleatória na linguagem R (Pacote: randomforest). Figura 15. Procedimentos para executar o algoritmo de Classificação de Rede Neural Artificial na linguagem R (Pacote: nnet). VII. CONCLUSÃO Este trabalhou apresentou métodos de mineração vistos na disciplina de mineração de dados aplicados ao dataset de atributos físico-químicos do vinhos branco e tinto. Em relação aos resultados de vinhos branco, as análises comparativas mostraram que o algoritmo de floresta aleatória obteve os melhores resultados para a classificação das notas de vinhos tanto no aspecto do dataset balanceado (AUC 92.9%) ou não (AUC 78.6%). No dataset de vinhos tinto ocorre o mesmo cenário, onde o algoritmo

10 9 de floresta aleatória e superior aos outros algoritmos com um AUC de 86% no conjunto desbalanceado e 97% no balanceado. Em relação a linguagem R podemos observar que é possível aplicar os mesmos métodos apresentados na disciplina e com maior liberdade para desenvolver seu problema, bem como facilidade para análise estatísticas dos dados iniciais do problema. REFERÊNCIAS [1] W. of Portugal, Associação interprofissional do sector vitivinícola e a entidade gestora da marca wines of portugal, November [Online]. Available: [2] A. S. Curvelo-Garcia, Controlo de qualidade dos vinhos: química enológica-métodos analíticos. Instituto da Vinha e do Vinho, [3] CVRVV, Comissão de viticultura da região dos vinhos verdes, July [Online]. Available: [4] D. V. Smith and R. F. Margolskee, Making sense of taste, Scientific American, vol. 16, no. 3, pp , [5] E. P. Pimentel, V. F. d. França, and N. Omar, A identificação de grupos de aprendizes no ensino presencial utilizando técnicas de clusterização, in Anais do Simpósio Brasileiro de Informática na Educação, vol. 1, no. 1, 2003, pp [6] M. V. DONI, Análise de cluster: métodos hierárquicos e de particionamento, São Paulo: Universidade Presbiteriana Mackenzie, São Paulo, [7] G. S. Semaan, M. D. Cruz, J. Brito, and L. S. Ochi, Proposta de um método de classificação baseado em densidade para a determinação do número ideal de grupos em problemas de clusterização, Learning and NonLinear Models, vol. 10, pp , [8] T. M. Mitchell, Machine learning. 1997, Burr Ridge, IL: McGraw Hill, vol. 45, [9] J. Han and M. Kamber, Data Mining, Southeast Asia Edition: Concepts and Techniques. Morgan kaufmann, [10] I. H. Witten and E. Frank, Data Mining: Practical machine learning tools and techniques. Morgan Kaufmann, 2005.

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais Artificial. Prática. Inteligência Artificial Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

Algoritmos de Aprendizado

Algoritmos de Aprendizado Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron

Leia mais

Prof. Heitor Silvério Lopes

Prof. Heitor Silvério Lopes Prof. Heitor Silvério Lopes WEKA WEKA: Waikato Environment for Knowledge Analysis Iniciado em 1992, versão estável atual: 3.8.1 É um software para mineração de dados desenvolvido em Java com código aberto

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Mineração de Dados - II

Mineração de Dados - II Tópicos Especiais: INTELIGÊNCIA DE NEGÓCIOS II Mineração de Dados - II Sylvio Barbon Junior barbon@uel.br 10 de julho de 2015 DC-UEL Sylvio Barbon Jr 1 Sumário Etapa II Algoritmos Básicos Weka: Framework

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão) Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação

Leia mais

UNIVERSIDADE FEDERAL DO PARANÁ. Departamento de Estatística

UNIVERSIDADE FEDERAL DO PARANÁ. Departamento de Estatística UNIVERSIDADE FEDERAL DO PARANÁ Departamento de Estatística Modelo estatístico ligado a tipos de vinhos e classificação de qualidade CE225 - Modelos Lineares Generalizados Prof. Cesar Augusto Taconeli Andrea

Leia mais

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado

Leia mais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais Classificação de Padrões Abordagem prática com Redes Neurais Artificiais Agenda Parte I - Introdução ao aprendizado de máquina Parte II - Teoria RNA Parte III - Prática RNA Parte IV - Lições aprendidas

Leia mais

Introdução à Mineração de Dados com Aplicações em Ciências Espaciais

Introdução à Mineração de Dados com Aplicações em Ciências Espaciais Introdução à Mineração de Dados com Aplicações em Ciências Espaciais Escola de Verão do Laboratório Associado de Computação e Matemática Aplicada Rafael Santos Dia 2: 1 /59 Programa Dia 1: Apresentação

Leia mais

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de

Leia mais

SUPPORT VECTOR MACHINE - SVM

SUPPORT VECTOR MACHINE - SVM SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento

Leia mais

Aprendizagem de Máquina - 2. Prof. Júlio Cesar Nievola PPGIa - PUCPR

Aprendizagem de Máquina - 2. Prof. Júlio Cesar Nievola PPGIa - PUCPR Aprendizagem de Máquina - 2 Prof. Júlio Cesar Nievola PPGIa - PUCPR Inteligência versus Aprendizado Aprendizado é a chave da superioridade da Inteligência Humana Para que uma máquina tenha Comportamento

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Fundamentos de Mineração de Dados

Fundamentos de Mineração de Dados Fundamentos de Mineração de Dados Prof. Ricardo Fernandes ricardo.asf@ufscar.br O que é Mineração de Dados? Uso de ferramentas matemáticas, clássicas ou inteligentes, no processo de descoberta de conhecimento

Leia mais

Tópicos sobre Redes Neurais

Tópicos sobre Redes Neurais Tópicos sobre Redes Neurais -Memórias Matriciais -Modelos Híbridos -Redes de Base Radial(RBF) -Redes Construtivas -Redes Recorrentes Prof João Alberto Fabro IF67D Sistemas Inteligentes 1 Dep de Informática

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem

Leia mais

4 Redes Neurais Artificiais

4 Redes Neurais Artificiais 4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características

Leia mais

Descoberta de Conhecimento em Bancos de Dados - KDD

Descoberta de Conhecimento em Bancos de Dados - KDD Descoberta de Conhecimento em Bancos de Dados - KDD Professor: Rosalvo Ferreira de Oliveira Neto Disciplina: Inteligência Artificial Tópicos 1. Definições 2. Fases do processo 3. Exemplo do DMC 4. Avaliação

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:

Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis: Back Propagation Fatores importantes para a modelagem da Rede Neural: Seleção de variáveis; veis; Limpeza dos dados; Representação das variáveis veis de entrada e saída; Normalização; Buscando melhor Generalização

Leia mais

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

Programa do Curso. Transformação de Dados. Sistemas Inteligentes Aplicados. Carlos Hall. Discretização de Variáveis Contínuas

Programa do Curso. Transformação de Dados. Sistemas Inteligentes Aplicados. Carlos Hall. Discretização de Variáveis Contínuas Sistemas Inteligentes Aplicados Carlos Hall Programa do Curso Limpeza/Integração de Dados Transformação de Dados Discretização de Variáveis Contínuas Transformação de Variáveis Discretas em Contínuas Transformação

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 09 Árvores de Decisão Max Pereira Classificação É a tarefa de organizar objetos em uma entre diversas categorias pré-definidas. Exemplos

Leia mais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP) Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.

Leia mais

Lista 2 Sistemas Inteligentes (INE5633) 2014s2

Lista 2 Sistemas Inteligentes (INE5633) 2014s2 Lista 2 () 2014s2 Sistemas de Informação Universidade Federal de Santa Catarina 1. (Baseado em questão do POSCOMP 2009) Considere a árvore minimax abaixo representando um jogo, onde queremos maximizar

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

Projeto da Disciplina

Projeto da Disciplina Projeto da Disciplina Germano C. Vasconcelos Centro de Informática - UFPE Germano C.Vasconcelos 1 Objetivo Realizar um estudo experimental sobre a aplicação de modelos de redes neurais em um problema do

Leia mais

Reconhecimento de Padrões/Objetos

Reconhecimento de Padrões/Objetos Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 14 Support Vector Machines (SVM) 2016.1 Prof. Augusto Baffa Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

Redes Neurais (Inteligência Artificial)

Redes Neurais (Inteligência Artificial) Redes Neurais (Inteligência Artificial) Aula 16 Aprendizado Não-Supervisionado Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

Mineração de Dados em Biologia Molecular

Mineração de Dados em Biologia Molecular Mineração de Dados em Biologia Molecular André C.. L. F. de Carvalho Monitor: Valéria Carvalho lanejamento e Análise de Experimentos rincipais tópicos Estimativa do erro artição dos dados Reamostragem

Leia mais

3 Modelos Comparativos: Teoria e Metodologia

3 Modelos Comparativos: Teoria e Metodologia 3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito

Leia mais

7 Congresso de Pós-Graduação MODELAGEM DE BASE DE CONHECIMENTO PARA TAREFA DE CLASSIFICAÇÃO EM MINERAÇÃO DE DADOS

7 Congresso de Pós-Graduação MODELAGEM DE BASE DE CONHECIMENTO PARA TAREFA DE CLASSIFICAÇÃO EM MINERAÇÃO DE DADOS 7 Congresso de Pós-Graduação MODELAGEM DE BASE DE CONHECIMENTO PARA TAREFA DE CLASSIFICAÇÃO EM MINERAÇÃO DE DADOS Autor(es) LIDIA MARTINS DA SILVA Orientador(es) ANA ESTELA ANTUNES DA SILVA 1. Introdução

Leia mais

Reconhecimento de Padrões

Reconhecimento de Padrões Reconhecimento de Padrões André Tavares da Silva andre.silva@udesc.br Roteiro da aula Conceitos básicos sobre reconhecimento de padrões Visão geral sobre aprendizado no projeto de classificadores Seleção

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

6 Aplicação da Metodologia Proposta

6 Aplicação da Metodologia Proposta 6 Aplicação da Metodologia Proposta 6.1 Introdução A utilização da metodologia Box & Jenkins para a identificação da estrutura adequada é tarefa difícil para um usuário sem conhecimento prévio. Por isso,

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si

Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si Classificação de Dados Os modelos de classificação de dados são preditivos, pois desempenham inferências

Leia mais

Considerações de Desempenho

Considerações de Desempenho Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem

Leia mais

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional

Leia mais

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

Back Propagation. Dicas para o BP

Back Propagation. Dicas para o BP Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem

Leia mais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma

Leia mais

Aprendizagem de Máquina. Prof. Júlio Cesar Nievola PPGIA - PUCPR

Aprendizagem de Máquina. Prof. Júlio Cesar Nievola PPGIA - PUCPR Aprendizagem de Máquina Prof. Júlio Cesar Nievola PPGIA - PUCPR Introdução Justificativa Recente progresso em algoritmos e teoria Disponibilidade crescente de dados online Poder computacional disponível

Leia mais

Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS

Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS Aluno: Fabricio Aparecido Breve Prof.: Dr. André Ponce

Leia mais

Créditos. SCC0173 Mineração de Dados Biológicos. Aula de Hoje. Desempenho de Classificação. Classificação IV: Avaliação de Classificadores

Créditos. SCC0173 Mineração de Dados Biológicos. Aula de Hoje. Desempenho de Classificação. Classificação IV: Avaliação de Classificadores SCC0173 Mineração de Dados Biológicos Classificação IV: Avaliação de Classificadores Créditos O material a seguir consiste de adaptações e extensões dos originais: gentilmente cedidos pelo rof. André C..

Leia mais

Estudo e Avaliação da Seleção de Atributos para Pré-processamento no Processo de Mineração de Dados

Estudo e Avaliação da Seleção de Atributos para Pré-processamento no Processo de Mineração de Dados Estudo e Avaliação da Seleção de Atributos para Pré-processamento no Processo de Mineração de Dados Silvani Weber da Silva Borges 1 (PIBIC/CNPq/Unioeste), Renato B. Machado (Orientador), Newton Spolaôr

Leia mais

Figura 1: Metodologia de Reconhecimentos de Padrões desenvolvida na UFC

Figura 1: Metodologia de Reconhecimentos de Padrões desenvolvida na UFC Uma Solução para o GISSA: Análise Comparativa entre Algoritmos de Aprendizagem de Máquina Aplicados em um Dataset Relacionado ao Óbito Infantil Joyce Quintino Alves (1) ; Cristiano Lima da Silva (2); Antônio

Leia mais

Mapas Auto-Organizáveis de Kohonen SOM

Mapas Auto-Organizáveis de Kohonen SOM Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

p TPP = (6.1) e a rajada de perda de pacote é medida pela Comprimento Médio da Rajada (CMR ) que é dada por

p TPP = (6.1) e a rajada de perda de pacote é medida pela Comprimento Médio da Rajada (CMR ) que é dada por 6 Perdas de Pacotes O problema de perda de pacotes em rajadas nas redes IP e redes móveis é um dos fatores mais importantes a serem considerados na análise de sistemas de reconhecimento de voz distribuídos.

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

Redes de Funções de Base Radial Radial Basis Functions (RBFs)

Redes de Funções de Base Radial Radial Basis Functions (RBFs) Redes de Funções de Base Radial Radial Basis Functions (RBFs) Germano C. Vasconcelos Centro de Informática - UFPE Introdução Em uma RBF, a rede é definida do ponto de vista de um problema de aproximação

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado

Leia mais

Utilização de técnicas de Mineração de Dados para diagnóstico de rendimento dos alunos do ensino básico do município de Indaiatuba

Utilização de técnicas de Mineração de Dados para diagnóstico de rendimento dos alunos do ensino básico do município de Indaiatuba Utilização de técnicas de Mineração de Dados para diagnóstico de rendimento dos alunos do ensino básico do município de Indaiatuba Thaís Barros Nascimento 1, Maria das Graças J. M. Tomazela 1 1 Faculdade

Leia mais

Máquinas de Vetores de Suporte - Support Vector Machines (SVM) Germano Vasconcelos

Máquinas de Vetores de Suporte - Support Vector Machines (SVM) Germano Vasconcelos Máquinas de Vetores de Suporte - Support Vector Machines (SVM) Germano Vasconcelos Introdução * Método supervisionado de aprendizagem de máquina * Empregado em classificação de dados Classificação binária

Leia mais

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior Aula 2 Introdução Redes Neurais Prof. Dr. Sylvio Barbon Junior barbon@uel.br Sumário 1- Inteligência Artificial 2- Introdução às Redes Neurais Artificiais 3- Modelos de Redes Neurais supervisionados e

Leia mais

Classificação Hierárquica Multirrótulo Utilizando Redes Neurais Artificiais

Classificação Hierárquica Multirrótulo Utilizando Redes Neurais Artificiais Classificação Hierárquica Multirrótulo Utilizando Redes Neurais Artificiais Ricardo Cerri Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo cerri@icmc.usp.br Roteiro Introdução

Leia mais

Reconhecimento de Faces Utilizando Redes Neurais MLP

Reconhecimento de Faces Utilizando Redes Neurais MLP Reconhecimento de Faces Utilizando Redes Neurais MLP Autor: Adilmar Coelho Dantas 1, Orientador: Márcia Aparecida Fernandes 1 1 Programa de Pós-Graduação em Ciência da Computação Universidade Federal do

Leia mais

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz

Leia mais

Mapas Auto-Organizáveis de Kohonen SOM

Mapas Auto-Organizáveis de Kohonen SOM Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

Introdução à Mineração de Dados com Aplicações em Ciências Espaciais

Introdução à Mineração de Dados com Aplicações em Ciências Espaciais Introdução à Mineração de Dados com Aplicações em Ciências Espaciais Escola de Verão do Laboratório Associado de Computação e Matemática Aplicada Rafael Santos Dia 3: 1 /54 Programa Dia 1: Apresentação

Leia mais

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial

Leia mais

Classificação: 1R e Naïve Bayes. Eduardo Raul Hruschka

Classificação: 1R e Naïve Bayes. Eduardo Raul Hruschka Classificação: 1R e Naïve Bayes Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada

Leia mais

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas

Leia mais

Cap. 4 - Estimação por Intervalo

Cap. 4 - Estimação por Intervalo Cap. 4 - Estimação por Intervalo Amostragem e inferência estatística População: consiste na totalidade das observações em que estamos interessados. Nº de observações na população é denominado tamanho=n.

Leia mais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Orientador: Prof. Fabiano Lemes Ribeiro Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais Nome: João Vitor Squillace

Leia mais

Classificação Automática de Gêneros Musicais

Classificação Automática de Gêneros Musicais Introdução Método Experimentos Conclusões Utilizando Métodos de Bagging e Boosting Carlos N. Silla Jr. Celso Kaestner Alessandro Koerich Pontifícia Universidade Católica do Paraná Programa de Pós-Graduação

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

6. QUADRIMESTRE IDEAL 7. NÍVEL Graduação 8. Nº. MÁXIMO DE ALUNOS POR TURMA

6. QUADRIMESTRE IDEAL 7. NÍVEL Graduação 8. Nº. MÁXIMO DE ALUNOS POR TURMA Universidade Federal do ABC Rua Santa Adélia, 166 - Bairro Bangu - Santo André - SP - Brasil CEP 09.210-170 - Telefone/Fax: +55 11 4996-3166 1. CÓDIGO E NOME DA DISCIPLINA MC5004 - APRENDIZADO DE MÁQUINA

Leia mais

Redes Neurais não Supervisionadas: SOM

Redes Neurais não Supervisionadas: SOM Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais não Supervisionadas: SOM DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Horários Aulas Sala 3 CCET [quinta-feira, 8:20 12:00] Atendimento

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas

Leia mais