Exame de Aprendizagem Automática
|
|
|
- Neusa Zagalo
- 7 Há anos
- Visualizações:
Transcrição
1 Exame de Aprendizagem Automática 2 páginas com 11 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 5 de Janeiro de 2016 Nota: O exame está cotado para 40 valores. Os 20 valores das perguntas de 1 a 6 correspondem ao primeiro teste; os restantes ao segundo teste. A nota da componente teórico-prática será a média destas duas partes, usando para cada uma a melhor nota entre o exame e o teste correspondente. Pergunta 1 [4 valores] Suponha que quer seleccionar o melhor grau do polinómio a usar num problema de regressão. Usa um terço dos dado disponíveis para treinar os vários polinómios, um terço para validação, de forma a seleccionar o grau do polinómio com menor erro de validação, e um terço para teste do polinómio escolhido no final. Explique porque é que necessita deste conjunto final de teste, se já tinha calculado o erro de validação para cada polinómio. Pergunta 2 [3 valores] Numa regressão polinomial, a linha é colocada de forma a minimizar o erro quadrático entre os valores conhecidos e os valores previstos. Na regressão logística, que apesar do nome é um classificador, onde é que se quer colocar o hiperplano que separa as duas classes? Pergunta 3 [3 valores] A figura à direita mostra as curvas ROC (Receiver Operating Characteristic) para dois classificadores. Ambos foram treinados com o mesmo conjunto de treino, e ambas as curvas foram calculadas com o mesmo conjunto de teste. O eixo vertical mostra a fracção de verdadeiros positivos, o horizontal a fracção de falsos positivos. Indique, justificando, qual dos dois classificadores (A ou B) é o melhor. Pergunta 4 [2 valores] Descreva como se treina um classificador K-Nearest Neighbours. Pergunta 5 [4 valores] A figura à direita mostra esta Support Vector Machine: ( ) 1 N N N min α α n α m y n y m x T m x n α n 2 n=1 m=1 n=1 Foram impostas as seguintes restrições durante a minimização: 0 α n 10, n = 1,..., N N α n y n = 0 n=1 Indique, justificando, qual o valor ou valores possíveis de α para cada um dos pontos A, B e C indicados na figura. Se quiser indicar um intervalo, pode usar a notação [a, b] para um intervalo de valores entre a e b incluindo a e b, ]a, b[ para um intervalo de valores entre a e b excluindo a e b, ou ]a, b], [a, b[ para excluir apenas um dos extremos. Pergunta 6 [4 valores] O classificador Naïve Bayes Classifier assume que todos os atributos são condicionalmente independentes dada a classe. Por outro lado, o classificador de Bayes completo (Bayes Classifier) não assume que os atributos sejam independentes. Sabendo que muitas vezes os atributos não são independentes, mesmo dada a classe, porque é que quase sempre se prefere usar o classificador Naïve Bayes?
2 2 Segunda Parte Pergunta 7 [3 valores] A inequação abaixo estima o limite superior para o erro verdadeiro E da hipótese ĥ que minimiza o erro de treino Ê. Este limite é função de δ, do tamanho do conjunto de treino m e da dimensão Vapnik-Chervonenkis da classe de hipóteses, V C(H), e limita o erro verdadeiro com probabilidade 1 δ. ( ) E(ĥ) Ê(ĥ) + O V C(H) m ln m V C(H) + 1 m ln 1 δ Recorrendo a esta inequação, explique porque é que aumentar o número de atributos (features) num problema de classificação com um classificador linear aumenta o risco de sobreajustamento (overfitting). Pergunta 8 [2 valores] Explique um método para visualizar conjuntos de dados com mais de 3 atributos. Assuma que todos os atributos são numéricos e de valores contínuos. Pergunta 9 [2 valores] Explique um método para reduzir o número de atributos de um conjunto de dados. Pergunta 10 [10 valores] Indique, justificando a resposta, o algoritmo de clustering e os parâmetros mais relevantes que utilizaria nos seguintes casos: 10.a) Tem um conjunto com 200 pontos que quer reduzir a 20 pontos representativos da distribuição do conjunto inicial. 10.b) Tem um conjunto com 200 pontos e razões para crer que cada um dos pontos foi gerado por um de três processos aleatórios diferentes, cada um com a sua distribuição de probabilidades com pontos médios e variâncias diferentes. 10.c) Tem um conjunto com 200 pontos, quer atribuir todos os pontos a algum cluster, mas não faz ideia de quantos clusters deverá criar. 10.d) Tem um conjunto com 200 pontos que quer agrupar, não sabe quantos clusters devem ser gerados, mas não quer que os pontos isolados sejam atribuídos a algum cluster. 10.e) Tem um conjunto com 200 pontos que quer agrupar em 12 clusters, mas quer perceber também as relações entre esses clusters para saber quais se agrupam em grupos maiores, numa árvore com todos os 12 clusters. Pergunta 11 [3 valores] Considere o problema de treinar redes neuronais artificiais profundas (com várias camadas escondidas). 11.a) Explique a razão de ser mais difícil treinar redes neuronais artificiais profundas do que treinar redes com apenas uma camada oculta. 11.b) Explique uma forma de se ultrapassar essa dificuldade.
3 1) 2) 3) 4) 5)
4 6) Segunda Parte 7) 8) 9)
5 10 a) 10 b) 10 c) 10 d) 10 e) 11 a) 11 b)
Exame de Aprendizagem Automática
Exame de Aprendizagem Automática 2 páginas com 12 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 12 de Janeiro de 2017 Nota: O exame está cotado para 40 valores. Os 20 valores
1 o Teste de Aprendizagem Automática
o Teste de Aprendizagem Automática 3 páginas com 6 perguntas e 2 folhas de resposta. Duração: 2 horas DI, FCT/UNL, 22 de Outubro de 205 Pergunta [4 valores] As figuras abaixo mostram o erro de treino e
1 o Teste de Aprendizagem Automática
o Teste de Aprendizagem Automática 3 páginas, 5 perguntas, folhas de resposta. Duração: horas DI, FCT/UNL, 30 de Abril de 04 Pergunta [4 valores] Foram criadas, por amostragem aleatória com reposição,
Rede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva [email protected] Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Teoria do aprendizado
Teoria do aprendizado Marcelo K. Albertini 7 de Agosto de 2014 2/37 Teoria do aprendizado Teoremas não existe almoço grátis Viés e variância Aprendizado PAC Dimensão VC Máquinas de vetores suporte 3/37
SUPPORT VECTOR MACHINE - SVM
SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.5. Support Vector Machines 2.5. Support Vector Machines (SVM) 2.5.2.
Classificadores Lineares
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Classificadores Lineares David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Funções Discriminantes Lineares Perceptron Support
Thiago Zavaschi Orientador: Alessandro Koerich Programa de Pós-Graduação em Informática (PPGIa) Pontifícia Universidade
Thiago Zavaschi ([email protected]) Orientador: Alessandro Koerich Programa de Pós-Graduação em Informática (PPGIa) Pontifícia Universidade Católica do Paraná (PUC-PR) Conceitos relacionados a classificação
Inteligência Artificial
Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial Aprendizagem Outras Técnicas Prof. a Joseana Macêdo Fechine Régis
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem
Aprendizado de Máquina (Machine Learning)
Ciência da Computação (Machine Learning) Aula 01 Motivação, áreas de aplicação e fundamentos Max Pereira Nem todo conhecimento tem o mesmo valor. O que torna determinado conhecimento mais importante que
Curso de Data Mining
Curso de Data Mining Sandra de Amo Curvas Roc Uma curva ROC (Receiver Operating Characteristic) é um enfoque gráfico que permite visualizar os trade-offs entre as taxas de positivos verdadeiros e positivos
scikit-learn: Aprendizado de máquina 101 com Python
scikit-learn: Aprendizado de máquina 101 com Python Luciana Fujii Campus Party BH 2016 1 / 30 Introdução Aprendizado de máquina Aprendizado de máquina é o campo da ciência da computação que dá aos computadores
Aprendizado Bayesiano
Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado
Aprendizagem de Máquina
Plano de Aula Aprendizagem de Máquina Bagging,, Support Vector Machines e Combinação de Classificadores Alessandro L. Koerich Uma visão geral de diversos tópicos relacionados à Aprendizagem de Máquina:
Aprendizado de Máquinas. Classificadores Lineares
Universidade Federal do Paraná (UFPR) Departamento de Informática Aprendizado de Máquinas Classificadores Lineares David Menotti, Ph.D. web.inf.ufpr.br/menotti Objetivos Introduzir o conceito de classificação
Escola Secundária com 3º ciclo D. Dinis 12º Ano de Matemática A Tema II Introdução ao Cálculo Diferencial II. TPC nº 9 (entregar em )
Escola Secundária com º ciclo D. Dinis º Ano de Matemática A Tema II Introdução ao álculo Diferencial II TP nº 9 (entregar em 09-0-0) Grupo I. Uma caixa A contém duas bolas verdes e uma bola amarela. Outra
Uma Introdução a SVM Support Vector Machines. Obs: Baseada nos slides de Martin Law
Uma Introdução a SVM Support Vector Machines Obs: Baseada nos slides de Martin Law Sumário Historia das SVMs Duas classes, linearmente separáveis O que é um bom limite para a decisão? Duas classes, não
Mineração de Dados em Biologia Molecular
Mineração de Dados em Biologia Molecular André C.. L. F. de Carvalho Monitor: Valéria Carvalho lanejamento e Análise de Experimentos rincipais tópicos Estimativa do erro artição dos dados Reamostragem
Reconhecimento de Padrões. Reconhecimento de Padrões
Reconhecimento de Padrões 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso e Prof.
Redes Neurais Artificiais
Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de
ESCOLA SECUNDÁRIA COM 3º CICLO D. DINIS COIMBRA 12º ANO DE ESCOLARIDADE MATEMÁTICA A FICHA DE AVALIAÇÃO 12º B1 Grupo I
ESCOLA SECUNDÁRIA COM 3º CICLO D. DINIS COIMBRA 2º ANO DE ESCOLARIDADE MATEMÁTICA A FICHA DE AVALIAÇÃO 2º B Grupo I As cinco questões deste grupo são de escolha múltipla. Para cada uma delas são indicadas
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas
Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas Wrapper Filtros Muitos algoritmos de AM são projetados de modo a selecionar os
Máquinas de suporte vetorial e sua aplicação na detecção de spam
e sua aplicação na detecção de spam Orientador: Paulo J. S. Silva (IME-USP) Universidade de São Paulo Instituto de Matemática e Estatística Departamento de Ciência da Computação MAC499 Trabalho de Formatura
INF 1771 Inteligência Artificial
Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 17 Support Vector Machines (SVM) Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor
( x) = +. Qual dos seguintes. x = (B) o contradomínio é ],2] f é uma função par
Ficha de Trabalho n.º 7 página 5. Indique quantos são os pontos comuns aos gráficos das funções f e g definidas por f ( x) = x e g( x) = x (A) 0 (B) 1 (C) (D) 3 6. Pretende-se desenhar um retângulo com
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas ([email protected]) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal
INF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 14 Support Vector Machines (SVM) 2016.1 Prof. Augusto Baffa Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest
3 Técnicas de agrupamento
3 Técnicas de agrupamento Com o advento da internet a quantidade de informação disponível aumentou consideravelmente e com isso, tornou-se necessário uma forma automática de organizar e classificar esta
Aprendizado de Máquina (Machine Learning)
Ciência da Computação (Machine Learning) Aula 08 Regressão Linear Max Pereira Regressão: Prevendo valores de casas Regressão Quanto vale a minha casa? Quero vender minha casa. R$??? Regressão Verificar
Classificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva [email protected] Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
Adriana da Costa F. Chaves. Máquina de Vetor Suporte (SVM) para Classificação Binária 2
Máquina de Vetor Suporte (SVM) para Classificação Binária Adriana da Costa F. Chaves Conteúdo da Apresentação Introdução Máquinas de Vetor Suporte para Classificação binária Exemplos Conclusão Máquina
Laboratório Como usar algoritmos de aprendizado de máquina de regressão em Weka
Laboratório Como usar algoritmos de aprendizado de máquina de regressão em Weka Faça o download do dataset housing.arff*, e execute as seguintes tarefas: *disponível em: www.inf.ufpr.br/menotti/am-182/data.zip
θ depende de um parâmetro desconhecido θ.
73 Método de Máxima Verosimilhança (Maximum Likelihood) Seja uma variável aleatória (v. a.) cuja densidade de probabilidade depende de um parâmetro desconhecido. Admite-se conhecida a forma de Exemplo
Tema 0: Módulo Inicial Nº de Aulas Previstas (90 m): 18
Planificação Anual Matemática A 0º Ano Ano Lectivo 0/0 Tema 0: Módulo Inicial Nº de Aulas Previstas (90 m): 8 (BLOCOS DE 90M) Revelar espírito crítico, de rigor e confiança nos seus raciocínios. Abordar
Aprendizado de Máquina. Combinando Classificadores
Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquina Combinando Classificadores David Menotti, Ph.D. web.inf.ufpr.br/menotti Introdução O uso de vários classificadores
WEKA: Prática Carregando a base de dados no Weka
WEKA: Prática 2 1. Introdução O objetivo desta prática é utilizar a ferramenta Weka para comparar dois algoritmos de aprendizagem de máquina em um problema de detecção de SPAM. Os algoritmos a serem comparados
Regressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC
Regressão Linear Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Overfitting 2. Treino e Validação 3. Baseline dos modelos 1 Overfitting Overfit Em muitos casos, a amostra de dados coletada
SEMINÁRIO DOS ARTIGOS:
SEMINÁRIO DOS ARTIGOS: Text Detection and Character Recognition in Scene Images with Unsupervised Feature Learning End-to-End Text Recognition with Convolutional Neural Networks Fernanda Maria Sirlene
Método dos gradientes (ou método de máxima descida)
Método dos gradientes (ou método de máxima descida) Marina Andretta ICMC-USP 14 de setembro de 2010 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 14 de setembro de 2010 1 / 16 Método dos gradientes
ANÁLISE DE ALGORITMOS (INF 1721)
PUC-Rio Departamento de Informática Prof. Marcus Vinicius S. Poggi de Aragão (3WA) Horário: 2as. e 4as. 9-11hs (3WA) 3 de dezembro de 2016 Período: 2016.2 ANÁLISE DE ALGORITMOS (INF 1721) 3 a Lista de
Descoberta de Conhecimento em Bancos de Dados - KDD
Descoberta de Conhecimento em Bancos de Dados - KDD Professor: Rosalvo Ferreira de Oliveira Neto Disciplina: Inteligência Artificial Tópicos 1. Definições 2. Fases do processo 3. Exemplo do DMC 4. Avaliação
Sistemas de Apoio à Decisão. Guia de Exercícios
Sistemas de Apoio à Decisão Guia de Exercícios Pedro Campos Departamento de Matemática e Engenharias Normalização de Dados e Operações OLAP 1. Usando os dados para o atributo idade, (13, 15, 16, 16, 19,
Aprendizagem de Máquina - 2. Prof. Júlio Cesar Nievola PPGIa - PUCPR
Aprendizagem de Máquina - 2 Prof. Júlio Cesar Nievola PPGIa - PUCPR Inteligência versus Aprendizado Aprendizado é a chave da superioridade da Inteligência Humana Para que uma máquina tenha Comportamento
PROVAS Ciência da Computação. 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta)
PROVAS Ciência da Computação 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta) Ajuste de Curvas Objetivo Ajustar curvas pelo método dos mínimos quadrados 1 - INTRODUÇÃO Em geral, experimentos
Métodos para Classificação: - Naïve Bayes.
Métodos para Classificação: - 1R; - Naïve Bayes. Visão Geral: Simplicidade em primeiro lugar: 1R; Naïve Bayes. 2 Classificação: Tarefa: Dado um conjunto de exemplos préclassificados, construir um modelo
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica. Regressão. David Menotti.
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Regressão David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Regressão Linear ( e Múltipla ) Não-Linear ( Exponencial / Logística
Inteligência Artificial. Raimundo Osvaldo Vieira [DComp IFMA Campus Monte Castelo]
Inteligência Artificial Raimundo Osvaldo Vieira [DComp IFMA Campus Monte Castelo] Aprendizagem de Máquina Área da Inteligência Artificial cujo objetivo é o desenvolvimento de técnicas computacionais sobre
Exercícios de exames e provas oficiais
Exercícios de exames e provas oficiais. Na figura, está representada, num referencial ortogonal xoy, parte do gráfico da função g, segunda derivada de uma função g. Em qual das opções seguintes pode estar
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções
UNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição
UNIVERSIDADE FEDERAL DO ABC BC1419 Cálculo Numérico - LISTA 1 - Zeros de Funções (Profs. André Camargo, Feodor Pisnitchenko, Marijana Brtka, Rodrigo Fresneda) 1 Existência e unicidade de zeros; Métodos
Mineração de Dados - II
Tópicos Especiais: INTELIGÊNCIA DE NEGÓCIOS II Mineração de Dados - II Sylvio Barbon Junior [email protected] 10 de julho de 2015 DC-UEL Sylvio Barbon Jr 1 Sumário Etapa II Algoritmos Básicos Weka: Framework
Instituto Politécnico de Tomar Escola Superior de Tecnologia de Tomar Área Interdepartamental de Matemática
Instituto Politécnico de Tomar Escola Superior de Tecnologia de Tomar Área Interdepartamental de Matemática Análise Numérica Licenciaturas em Engenharia Ambiente,Civil e Química I - Equações Não Lineares.
Ajuste de Curvas. Diogo Pinheiro Fernandes Pedrosa. Universidade Federal do Rio Grande do Norte Centro de Tecnologia.
Ajuste de Curvas Diogo Pinheiro Fernandes Pedrosa Universidade Federal do Rio Grande do Norte Centro de Tecnologia Departamento de Engenharia de Computação e Automação http://wwwdcaufrnbr/ 1 Introdução
PROCESSO SELETIVO N 42/2019 PROVA 2 - CONHECIMENTOS ESPECÍFICOS
PROCESSO SELETIVO N 42/2019 PROVA 2 - CONHECIMENTOS ESPECÍFICOS LEIA ATENTAMENTE AS INSTRUÇÕES ABAIXO 1. Você recebeu do fiscal o seguinte material: (a) Este caderno, com o enunciado das 20 (vinte) questões
Laboratório Classificação com o WEKA Explorer
Laboratório Classificação com o WEKA Explorer Para esse laboratório considere os seguintes classificadores: C4.5 (J4.8) KNN Naïve Bayes Considere as bases de treinamento e teste de dígitos manuscrítos
Técnicas computacionais em probabilidade e estatística II
Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco AULA 1: Problemas Computacionais em Inferência Estatística.
Matemática A - 10 o Ano Ficha de Trabalho
Matemática A - 10 o Ano Ficha de Trabalho Álgebra - Divisão Inteira de Polinómios Grupo I 1. Tendo em conta que n N; a n, a n 1,..., a 1, a 0 R e a n 0; b n, b n 1,..., b 1, b 0 R e b n 0, considere os
Redes Neurais (Inteligência Artificial)
Redes Neurais (Inteligência Artificial) Aula 13 Support Vector Machines (SVM) Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest
Classificação: 1R e Naïve Bayes. Eduardo Raul Hruschka
Classificação: 1R e Naïve Bayes Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
Comparação de métodos de fingerprints para o rastreio virtual de inibidores da 5α-redutase
Pedro Rafael Mendes Reis Comparação de métodos de fingerprints para o rastreio virtual de inibidores da 5α-redutase Dissertação de Mestrado em Química Farmacêutica Industrial, orientada pela Doutora Cândida
