Controle de Estilos Musicais em Tarefa de Aprendizagem Design, Implementação e Avaliação Empírica

Tamanho: px
Começar a partir da página:

Download "Controle de Estilos Musicais em Tarefa de Aprendizagem Design, Implementação e Avaliação Empírica"

Transcrição

1 Controle de Estilos Musicais em Tarefa de Aprendizagem Design, Implementação e Avaliação Empírica Weber Martins 1,3, Murilo Borges Silva 1,2, Lauro E. G. Nalini 1,3 1 Grupo PIRENEUS / Engenharia Elétrica e de Computação Universidade Federal de Goiás Goiânia GO Brazil 2 Departamento de Sistemas da Informação Faculdades Álvares Faria Goiânia Goiás Brazil 3 Departmento de Psicologia Universidade Católica de Goiás Goiânia GO Brazil {weber, mborges, Abstract. The present study proposes, implements, and evaluates the intelligent selection of musical styles with Reinforcement Learning. The evaluation is empirical and undertaken in the context of human experimentation with chaining, a typical psychological task. Average values of group performance (number of trials, session duration and response latency) in three experimental conditions (silence, random and intelligent), at the first and fourth programmed sequences in each condition and among conditions have revealed significant reductions. In order to avoid crisp musical transitions, a (one-dimensional) ring is trained based on Kohonen s Self- Organizing Maps and on a proper representation of musical styles. Resumo. O presente estudo propõe, implementa e avalia a seleção inteligente de estilos musicais com Aprendizado por Reforço. A avaliação é empírica e realizada no contexto de experimentação humana com encadeamento, uma tarefa tipicamente estudada em Psicologia. Valores médios de desempenho coletivo (número de tentativas, duração da sessão e latência da resposta) em três condições experimentais (silêncio, aleatório e inteligente), na primeira e na quarta seqüências programadas em cada condição e entre condições, revelaram reduções significantes. Para evitar transições musicais bruscas, um anel unidimensional foi treinado baseado em Mapas Auto-organizáveis de Kohonen para representar adequadamente os estilos musicais. 1. Introdução Um fator comum existente nos diferentes povos é a presença da música. Ela existe nos mais diversos ritmos, formas, melodias, causando fascínio e repúdio, dependendo do meio cultural onde se manifesta. Esta forma de expressão, que talvez seja uma das mais antigas, é encontrada desde a Pré-história, e em todas as sociedades humanas. Considerados os objetivos do presente estudo (descritos adiante), breve fundamentação de aspectos da produção musical será apresentada neste ponto. 557

2 2. Música e Comportamento Humano A partir de observações cotidianas, pode-se notar que cada indivíduo mantém sua própria relação com a estimulação sonora (música) enquanto, por exemplo, estuda. Alguns preferem total silêncio para aprender, outros utilizam aparelhos de reprodução sonora reproduzindo algum estilo musical enquanto estudam. Outros aprendem mais lentamente se não possuírem um rádio, ou um aparelho de CD, ou aparelhos similares ligados ao lado. Araújo [1] realizou estudo sobre o controle de sinais fisiológicos humanos (especificamente, a condutância galvânica da pele) com o emprego de técnicas computacionais de Aprendizado por Reforço (AR) [2]. No estudo, uma estrutura musical proposta por Mozart [3] era capaz de gerar trechos musicais completos, com melodia e harmonia. Posteriormente foram identificados quais trechos musicais conseguiam reduzir a condutância. Os resultados de Araújo tornaram evidente a eficiência de redes neurais artificiais e da música para gerar contextos sonoros úteis ao controle fisiológico. A verificação da influência da música sobre comportamento humano [1] abre um leque para investigação das possíveis influências da música sobre aspectos do comportamento, campo este que ainda está por ser estudado sistematicamente. A utilização do aprendizado por reforço em redes neurais artificiais se apresenta como uma boa alternativa para o estudo das relações entre estilos musicais e aprendizagem. Conseguir que um agente inteligente selecione estilos musicais durante uma tarefa de aprendizagem no sentido de estabelecer o contexto musical mais apropriado a aquisição pode trazer melhorias ao processo. Vários trabalhos vêm sendo desenvolvidos na área de sistemas tutores inteligentes [4, 5, 6], demonstrando que demonstraram que, dentre outros, fatores como a cor de fundo de uma tela, o perfil psicológico e o estilo de aprendizagem do aprendiz, e rotas de navegação do conteúdo em educação a distância, exercem influências significativas durante a execução de tarefas específicas. Cabe, portanto, investigar a influência do fundo musical. O uso de técnicas computacionais de aprendizado por reforço em redes neurais artificiais tem sido intensificado [7], devido à exigência de pequeno conhecimento sobre o ambiente e de sua dinâmica. No presente estudo, propomos a criação de um agente inteligente baseado em aprendizado por reforço que controle a seleção de um estilo musical específico na tentativa de melhorar o desempenho de um indivíduo na execução de uma tarefa de aprendizagem. Mais especificamente, o objetivo foi mostrar a aplicabilidade de redes neurais artificiais treinadas com técnica de aprendizado por reforço no controle inteligente da manutenção ou alteração de nove estilos musicais durante a aprendizagem de seqüências (ou, na linguagem da Psicologia, de responder de ordenação seqüencial em tarefa de encadeamento) [8, 9, 10, 11, 12, 13]. 3. Aprendizado por Reforço O AR se baseia na aprendizagem do que deve ser feito para maximizar o sinal de retorno numérico a partir do mapeamento das situações para as ações. Não é dito ao aprendiz que ação deve ser realizada. Ao invés disto, o aprendiz deve descobrir que ação produz o maior retorno através de tentativas realizadas por ele próprio. De acordo 558

3 com Sutton e Barto (1998), tentativa e erro são as características mais importantes deste método. À medida que os padrões vão sendo apresentados ao sistema, é fornecida não a resposta correta esperada, mas sim um indicativo de acerto ou de erro. No caso de um retorno errado, o sistema não fica sabendo o que estava errado ou o porquê do erro. Através de tentativas e erros, o sistema formula gradualmente uma representação de como terminar a tarefa. O aprendizado acontece com o fornecimento de recompensas ou punições a cada par entrada/saída, característica esta que se considera justificar o nome aprendizado por reforço. A avaliação do sistema é simultânea ao aprendizado, o que torna a exploração do ambiente necessária considerando o objetivo de mapeá-lo. Três fatores, detalhados à diante, são levados em consideração para que o sistema possa mapear a dinâmica de cada ambiente: 1. Estado, 2. Ação e 3. Recompensa. O AR funciona através de um algoritmo apropriado que processa as informações obtidas do ambiente (parcialmente desconhecido), a partir das interações do agente com o ambiente. Não é necessário conhecimento completo do ambiente. O objetivo do algoritmo é obter uma política ótima. Uma política ótima é obtida quando o agente consegue avaliar cada estado e definir um modo de atuação que lhe proporcione o melhor retorno naquele ambiente. De fato, uma política ótima nada mais é do que um conjunto de regras sobre como o sistema trata os reforços e punições, caso não se conheça de antemão a função que modela esta política [7]. O modelo padrão do AR possui um agente que, além de ser aprendiz, toma decisões e acumula experiências a cada passo. O agente está, através dos seus sensores, percebendo o ambiente. O ambiente é o conjunto de todos os elementos externos ao agente [1]. Motores implementam as ações tomadas pelo agente, ações estas que continuamente se repetem, gerando novas situações. As recompensas e as punições fornecidas são valores numéricos especiais, normalmente positivos ou negativos, respectivamente. Disto decorre que, quanto maior a recompensa total até o final da tarefa, melhor terá sido a interação com o ambiente. Em uma determinada tarefa, o agente terá, a passos de tempo t, uma representação do estado do ambiente, s t S, onde S é conjunto dos estados possíveis. Tal como mostra a Figura 3, a partir de um estado s t, o agente irá selecionar a próxima ação a A(s t ), onde A(s t ) é o conjunto das ações disponíveis entre o estado s t e o estado s t+1. Estas ações afetarão o ambiente ao transitarem de um estado para outro. Figura 3: Transições Possíveis de um Estado Atual st para Estados st+1. No passo seguinte, st+1, em parte como conseqüência da ação realizada, o agente receberá uma recompensa numérica com valor entre 0 e 1. Tal conseqüência é denominada reforço escalar. 559

4 A Figura 4 mostra como ocorre a interação entre o agente e o ambiente, concebida a partir do dilema exploration vs. exploitation [7]: Figura 4: Interação Agente-Ambiente no Dilema Exploration vs. Exploitation. O dilema exploration vs. exploitation consiste numa dicotomia descritiva de como o agente se comporta na descoberta das melhores ações. O agente pode ficar com as informações já descobertas (exploration) ou buscar novas informações (exploitation). No primeiro caso, o agente deve descobrir entre ações desconhecidas já no início da tarefa. No segundo, mesmo conhecendo determinada ação, o agente deve tentar novas ações à medida que o mapeamento do ambiente é realizado. O objetivo do agente é maximizar o volume total de recompensas recebidas. A cada passo de tempo t, uma conseqüência (recompensa ou punição) é atribuída ao agente, sendo um valor totalizado no final da tarefa. A cada sinal retornado, o agente irá direcionar as ações para tentar alcançar o seu objetivo final. O uso do sinal é o que distingue o AR. Incentivar o agente a atingir objetivos secundários pode levá-lo a não alcançar o objetivo principal definido na tarefa. Assim, para que o sistema atinja os objetivos esperados, o mais adequado é dizer para o agente o que se quer que ele faça e não como ele deve fazer [7]. Mapeamento dos estados (sobretudo registro dos retornos) se dá a cada passo do agente para que a probabilidade de selecionar cada ação possível fique indicada, e seja possível a maximização das recompensas e, conseqüentemente, o alcance do objetivo final da tarefa. Política do agente é o nome dado para este mapeamento, cuja notação é π t. O mapeamento representa o comportamento do sistema para alcançar o objetivo, onde π t (s, a) é a probabilidade de a t = a se s t = S. A política do agente dá o direcionamento para o agente mudar, considerados os resultados alcançados. Uma política ótima do agente é notada por π*(s, a) [7]. Conforme mencionado acima, a maximização das recompensas e o alcance do objetivo final da tarefa decorrem do registro dos retornos recebidos cada passo de tempo t. A equação 1 descreve a seqüência de retornos, onde RT é o retorno total e T o passo de tempo final. R T = r t+1 + r t+2 + r t+3,... r T (1). Neste ponto, uma distinção se faz necessária para melhor esclarecimento da noção de retorno introduzida acima, considerado o caso especial que será apresentado abaixo. Algumas interações entre agente e ambiente podem definir episódios. Episódios são seqüências de fatos com duração e tempo final definido (por exemplo, uma partida de basquete). Um episódio chega ao estado terminal quando cessa, podendo, neste ponto, dar início a um novo episódio. Neste caso, a tarefa pode se 560

5 considerada episódica. Quando as interações entre agente e ambiente progridem sem limites ou os episódios não são claramente identificados (como, por exemplo, a atividade de um robô de ciclo de vida longo), a tarefa é considerada contínua. No caso de tarefas contínuas, há dificuldade na maximização do retorno da ação do agente já que o tempo final é T =. Assim, para tais casos, foi implementado um cálculo denominado Taxa de Desconto, cuja notação é γ. A taxa de desconto torna o cálculo do retorno conceitualmente mais complexo. Matematicamente, a taxa de desconto pode ser obtida com a equação 2 abaixo. R T = r t+1 + γ r t+2 + γ 2 r t+3,... r T = k=0 Σ γ k r t+k+1 (2). A taxa de desconto γ é um parâmetro que varia entre 0 e 1, e determina o valor das recompensas futuras. De acordo com a equação 2, quanto menor for o valor de γ, menos importância os valores de desconto anteriores terão e, com isto, ocorrerá a maximização dos valores atuais. Esta possibilidade tem sido denominada Visão Míope. Quanto mais próximo de 1 for o valor de γ, maior importância os valores de desconto anteriores terão. Neste caso, o impacto relativo dos valores atuais é pequeno. Esta possibilidade tem sido denominada Visão Ampla [7]. Um dos pontos principais do AR consiste em saber se as escolhas feitas pelo agente são boas. Uma função, denominada Função Valor, estabelece uma medida para a definição de que ação o agente deve realizar. A função valor estima o quão boa é a ação para o agente num determinado estado tomando como referência uma medida de recompensas futuras (retorno esperado) a partir da ação tomada. Na maioria dos algoritmos AR, a notação geral utilizada para a função valor é V π. Se a função valor considerar apenas o estado s, então a notação é V π (s). Caso a função valor considere o par estado-ação, então a notação é Q π (s, a). Método da Diferença Temporal O método da diferença temporal (DT) se baseia na diferença entre um passo de tempo e o passo seguinte para cálculo e atualização do retorno. A utilização da experiência para resolver os problemas de AR é uma característica do DT. A atualização dos valores de retorno é feita a cada passo de tempo e tem como base outras estimativas já aprendidas. A equação 15 é a formulação utilizada para o cálculo: V(s t ) = V(s t ) + α [r t+1 + γv(s t+1 ) - V(s t )] (3). Na equação 3, α é uma constante de atualização que indica o quanto a rede vai aprender. O trecho entre colchetes é conhecido como Erro da Diferença Temporal e significa a diferença entre o passo de tempo t e o passo de tempo t+1. A estimativa da diferença temporal se baseia em outra estimativa ocorrida no passo de tempo anterior recursivamente, recebendo o nome de Bootstrap [7]. A Figura 5 descreve o algoritmo do DT. 561

6 Figura 5: Algoritmo da Diferença Temporal. O DT não requer modelagem do ambiente, dos retornos e das probabilidades de transição dos estados segundo processos markovianos. Portanto, pode ser implementado totalmente de forma incremental para aplicações on-line. Os valores pressupostos das atualizações garantem a convergência até a resposta correta. Adicionalmente, tem sido demonstrado experimentalmente que os métodos DT são mais rápidos que outros métodos em tarefas estocásticas [12]. Obter Q*(s, a) torna a escolha de ações ótimas ainda mais fácil. Neste caso, o agente não necessita fazer a pesquisa de um passo à frente. Para qualquer estado s, o agente pode simplesmente encontrar uma ação qualquer que maximize Q*(s, a). A função valor estado-ação ótima memoriza os resultados de todas as procuras nos passos à frente e, ainda, fornece o retorno ótimo esperado de longo prazo como um valor que está imediata e localmente disponível para cada par estado-ação. Assim, sem ter que conhecer a dinâmica do ambiente (características ou valores) dos estados sucessores pode-se, com a função valor estado-ação ótima, selecionar ações ótimas. 4. Sistema Proposto O sistema proposto utiliza o método de diferença temporal (DT) com atualização da estimativa de valor (ou função valor) conforme a equação 15. O valor 0,2 foi definido para ambas as variáveis α e γ. Erros ocorridos foram considerados de menor importância e o momento atual com os valores de α e γ foram priorizados. A transição entre estilos musicais, quando controladas inteligentemente pelo sistema, aconteceu de acordo com uma entre cinco opções distintas: 1) do estilo vigente para ele mesmo, 2) do estilo vigente para o vizinho da direita, 3) do estilo vigente para o vizinho da esquerda, 4) do estilo vigente para o segundo vizinho da direita, ou 5) do estilo vigente para o segundo vizinho da esquerda. A cada escolha e mudança sucessiva de um estilo musical, o somatório da função valor dos cinco neurônios era realizado, numa totalização sempre igual a 100%. No processo de transição, portanto, o sistema escolhia o próximo estilo probabilisticamente, se baseando na distribuição das estimativas de 562

7 valor dos cinco neurônios atualizadas. Em cada atualização da função valor, a diferença entre o valor anterior e o novo valor era distribuída entre os outros quatro pesos possíveis na transição. O estilo anterior e estilo atual foram considerados para atualização dos pesos, pois somente após o estilo ter sido escolhido é que o retorno (resultado da escolha) vinha a ser conhecido. A Figura 6 mostra esquematicamente como ocorria a transição inteligente entre os estilos musicais. No sistema, os critérios de punição e recompensa estão relacionados ao ambiente onde o agente trabalha. Consideradas as propriedades da tarefa de encadeamento (descrita adiante) a que os participantes foram expostos, os critérios de punição e recompensa para o agente do sistema proposto foram definidos da seguinte forma: 1) quando o participante incorria em erro por re-escolha de estímulo errado para a posição, ocorria a punição da rede denominada reincidência de erro absoluto ; 2) quando o participante errava um estímulo que já havia acertado anteriormente, ocorria a punição da rede denominada erro real, e 3) caso não acontecesse nenhum dos tipos de erro citados anteriormente, o valor de recompensa para o agente era 0,2. Figura 6: Transição entre Estilos Musicais Controlada Inteligentemente. Adicionalmente, para cada situação de punição, o valor atribuído ao agente (variável de retorno no tempo t+1) foi 0,3. As transições entre estilos musicais controladas inteligentemente tinham como alternativas possíveis somente os estilos dentro dos retângulos na Figura 6. Como mencionado, inicialmente, os pesos valem 0,2, representando 20% de chance de serem escolhidos. Deste modo, cada estilo tinha a mesma chance de ser escolhido na primeira transição, no início da tarefa. Admitiu-se que a rede estava suficientemente treinada a partir da terceira seqüência de figuras que cabia ao participante aprender. Verificou-se ser esta a quantidade mínima de experiência para atualização apropriada dos pesos nas transições. Cabe registrar que a escolha dos estilos musicais foi arbitrária, buscando obter diversidade suficiente para afetar significativamente os participantes. O uso de Mapas de Kohonen [14, 15] é importante no arranjo topológico dos estilos no sentido de 563

8 impedir mudanças bruscas de estilos. Maiores detalhes deste processo podem ser obtidos em [16]. 5. Experimentos e Resultados Delineamento experimental de grupos independentes foi utilizado no estudo. 96 participantes foram alocados oportunisticamente em um de três grupos, tendo sido cada grupo associado a uma condição implementada a partir da ausência ou presença dos estilos musicais. Para um grupo de participantes, a aprendizagem das seqüências na tarefa de encadeamento ocorreu na ausência completa de som, ou seja, nenhum dos estilos musicais selecionados era apresentado aos participantes deste grupo durante a aprendizagem. Este grupo foi denominado Grupo Silêncio (GS), tendo sido formado por 31 indivíduos. Um segundo grupo de participantes, denominado Grupo Aleatório (GA) e composto por 31 indivíduos, aprendeu as seqüências com som (estilos musicais) presente. Para os participantes no GA, nove estilos musicais foram apresentados em sucessão aleatória durante a realização da tarefa. No controle aleatório das transições entre os estilos musicais, o estilo sucessor do estilo vigente podia ser qualquer um dos estilos, incluindo o estilo vigente. O tempo de execução do estilo vigente foi de 30 segundos, duração esta definida em pré-testes empíricos desta variável. De oito medidas de desempenho definidas para análise, apenas três foram analisadas no presente estudo 5. As medidas analisadas foram: 1) o número de tentativas para aquisição da seqüência (NTt), 2) a tempo gasto para aquisição da seqüência (TG, em segundos), e 3) a latência média das respostas aos estímulos da seqüência (Ltµ, em segundos). De acordo com o referencial metodológico da Análise Experimental do Comportamento, o NTt é definido pelo número de vezes em que o participante tenta montar a seqüência desde a primeira escolha de um estímulo até o cumprimento do critério de aprendizagem adotado (no presente estudo, três repetições consecutivas da seqüência sem erros). O TG é definido pelo tempo que decorre desde a primeira escolha de um estímulo até o cumprimento do critério de aprendizagem adotado. Por fim, a Ltµ é definida pelo quociente entre o somatório da duração de todos os intervalos de tempo que transcorrem entre a disponibilização da matriz de estímulos para o participante responder em cada tentativa e a(s) resposta(s) de escolha emitida(s) ao(s) estímulo(s) e o número total de respostas (certas e erradas) emitidas (NTR). Como o somatório da duração de todos os intervalos de tempo entre a disponibilização da matriz de estímulos atualizada e a escolha de um deles é, neste caso, igual ao TG para aprender a seqüência, a Ltµ pode ser também enunciada como o quociente entre o TG e o número total de respostas (certas e erradas) emitidas ou seja, Ltµ = TG/NTR. O Chain 1.0 promovia, armazenava e, ao final da sessão experimental, gerava o registro de todas as medidas do estudo. A Figura 18 ilustra o registro de desempenho gerado pelo Chain 1.0. Tabela 1: Valores Médios do Número de Tentativas (µ NTt), do Tempo Gasto (µ TG) e da Latência Média de Repostas aos Estímulos (µ LTµ) para cada seqüência, em cada condição (Grupos GS, GA e GC). Seqüência 1 A 2 A 3 A 4 A Grupo GS GA GC GS GA GC GS GA GC GS GA GC µ NTt 95,94 97,65 109,09 98,16 91,42 99,50 100,03 95,94 103,21 99,35 95,26 96,26 µ LTµ 2,58 2,53 2,52 2,71 2,61 2,54 2,63 2,65 2,50 2,64 2,60 2,47 564

9 Numa comparação intra-grupo dos valores obtidos para cada variável na primeira e na quarta seqüências, pode ser observado que a diferença do µ NTt no GS (µ NTt 1ª GS µ NTt 4ª GS) foi igual a 3,41, no GA (µ NTt 1ª GA µ NTt 4ª GA) foi igual a 2,45, e no GC (µ NTt 1ª GC µ NTt 4ª GC) foi igual a 12,83. Para a variável µ TG, pode ser observado que a diferença no GS (µ TG 1ª GS µ TG 4ª GS) foi igual a 49,04, no GA (µ TG 1ª GA µ TG 4ª GA) foi igual a 4,39, e no GC (µ TG 1ª GC µ TG 4ª GC) foi igual a 166,18. Por fim, para a variável µ LTµ, a diferença observada no GS (µ LTµ 1ª GS µ LTµ 4ª GS) foi igual a 0,06, no GA (µ LTµ 1ª GA µ LTµ 4ª GA) foi igual a 0,07, e no GC (µ LTµ 1ª GC µ LTµ 4ª GC) foi igual 0,05. Os dados mostram que, quando os participantes foram solicitados a aprender as seqüências na ausência do contexto musical (GS) ou com este contexto mudando aleatoriamente (GA), os valores médios de desempenho do início (1ª seqüência) para o fim (4ª seqüência) da realização da tarefa, foram inferiores àqueles observados quando a aprendizagem se deu sob mudança inteligente (ou seja, sob controle da rede neural artificial) do contexto musical. Enquanto para o GS e o GA os valores médios de µ NTt, µ TG e µ LTµ ou aumentaram (valores de diferença negativos) ou permaneceram aproximadamente iguais, os valores médios para GC diminuíram. Em média, os participantes do GC aprenderam a 4ª seqüência em menos 13,31 tentativas, menos 3,14 minutos e respondendo 0,12 segundos mais prontamente aos estímulos que os participantes dos grupos GS e GA. Noutra análise intra-grupo, verificou-se que a dispersão dos valores que deram origem aos valores médios de NTt, TG e LTµ na aquisição da 1ª e da 4ª seqüências também mudou de modo correspondente ao observado para os valores descritos acima. A Tabela 2 mostra a porcentagem de redução dos valores de desvio-padrão (dp, não mostrados) em torno das médias obtidas de NTt, TG e LTµ na 1ª e na 4ª seqüências. A porcentagem de redução da dispersão observada para o NTt foi de 33%. Para o TG, a redução foi de 19%, e para a LTµ foi de 18%. Tabela 2: Porcentagem de Redução dos Valores de Desvio Padrão (dp) em torno das Médias do Número de Tentativas (µ NTt), do Tempo Gasto (µ TG) e da Latência Média de Respostas aos Estímulos (µ LTµ), obtidas na 1ª e na 4ª Seqüências, em cada Condição (Grupos GS, GA e GC). Grupo (Condição) µ NTt µ TG µ Ltµ GS GA GC Os dados da Tabela 2 mostram que o desempenho de cada um dos diferentes participantes do GC se tornou mais homogêneo que o desempenho dos participantes do GS e do GA do início para o fim da sessão experimental, à medida que progrediam na aquisição das quatro seqüências programadas. 6. Conclusão O presente artigo demonstrou como estilos musicais podem ser selecionados de modo a fornecer ambientes sonoros apropriados a tarefas humanas. Em particular, tal estudo é apropriado a Sistemas Tutores Inteligentes. O baixo número de reforços recebido pelo 565

10 sistema pode ter sido responsável pela falta de informação relevante a uma melhor adaptação. O emprego de sinais fisiológicos, tais como a resistência galvânica da pele e a taxa de batimentos cardíacos, será investigado no futuro como fonte de reforços ambientais. Referências [1] MARTINS, W.; ARAUJO, I. Z. (2001). Soft control of human physiological signals by reinforcement learning. Proc. IJCNN2001, Washington, USA. Los Alamitos CA: IEEE Computer Society Press. v. 4. p [2] HAYKIN, S. (2002) Redes neurais: princípios e prática. Porto Alegre: Bookman. [3] MOZART, W. A. (1983) Mozart Melody Dicer. Brighton (MA), USA: Carousel Publishing Corporation. [4] MARTINS, W.; CARVALHO, S. D. (2004) An Intelligent Tutoring System Based on Self-Organizing Maps - Design, Implementation and Evaluation. Proc 7th International Conf on Intelligent Tutoring Systems, Maceio, Brazil, p [5] MARTINS, W. et al (2004) A Novel Hybrid Intelligent Tutoring System and Its Use of Psychological Profiles and Learning Styles, Proc 7th International Conf on Intelligent Tutoring Systems, Maceio, Brazil, p [6] NARCIZO, P. H. D. (2003) A influência das cores em sistemas tutores inteligentes. Dissertação (Mestrado), Universidade Federal de Goiás. [7] SUTTON, R. S.; BARTO, A. G. (1998) Reinforcement learning: an introduction. Cambridge: The MIT Press. [8] BORGES, M.; TODOROV, J. C. (1985) Comportamento de ordenação de humanos nos procedimentos para-frente e para-trás. Psicologia: teoria e pesquisa, v. 1, n. 3, p [9] ASSIS, G. (1987) Comportamento de ordenação de humanos: uma análise experimental de algumas variáveis. Psicologia: teoria e pesquisa, v. 3, p [10] MALOTT, R. W et al. (1997) Elementary principles of behavior. Upper Saddle River: Prentice Hall. [11] SKINNER, B. F. (1938) The behavior of organisms. New York: Appleton-Century. [12] FESTER, C.B.; SKINNER, B. F. (1957) Schedules of reinforcement. New York: Appleton-Century Crofts. [13] CATANIA, A. C. (1999) Learning. Upper Saddle River: Prentice Hall. [14] KOHONEN, T. (1989) Self-organization and associative memory, Berlin: Springer- Verlag. [15] KOHONEN, T. (1997) Self-organizing maps, Finland: Springer. [16] MARTINS, W. et al (2004) Controle inteligente de estilos musicais baseado em Aprendizado por Reforço. Revista Estudos, Goiânia, v. 31,

3 Aprendizado por reforço

3 Aprendizado por reforço 3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina

Leia mais

Controle Inteligente de Tempo Livre em Tutoria Multissessão:

Controle Inteligente de Tempo Livre em Tutoria Multissessão: 19 a 21 de mar o de 2010 067 Controle Inteligente de Tempo Livre em Tutoria Multissessão: Concepção, Implementação e Avaliação Empírica Weber Martins 1, Viviane Margarida Gomes 2, Lauro Eugênio Guimarães

Leia mais

Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid

Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid 1 Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid Luciana Conceição Dias Campos Resumo Este trabalho consiste da aplicação de um algoritmo genético ao método

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 24 Aprendizado Por Reforço Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor (KNN).

Leia mais

Aprendizado por Reforço

Aprendizado por Reforço Aprendizado por Reforço Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aprendizado por Reforço 2. Q-Learning 3. SARSA 4. Outras ideias 1 Aprendizado por Reforço Problemas de decisão

Leia mais

lnteligência Artificial Introdução ao Processo Decisório de Markov

lnteligência Artificial Introdução ao Processo Decisório de Markov lnteligência Artificial Introdução ao Processo Decisório de Markov Aprendizado - paradigmas Aprendizado supervisionado O crítico comunica a EA o erro relativo entre a ação que deve ser tomada idealmente

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 18 Aprendizado Por Reforço Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor (KNN).

Leia mais

MÉTODOS QUANTITATIVOS PARA CIÊNCIA DA COMPUTAÇÃO EXPERIMENTAL

MÉTODOS QUANTITATIVOS PARA CIÊNCIA DA COMPUTAÇÃO EXPERIMENTAL MÉTODOS QUANTITATIVOS PARA CIÊNCIA DA COMPUTAÇÃO EXPERIMENTAL Pedro Henrique Bragioni Las Casas Pedro.lascasas@dcc.ufmg.br Apresentação baseada nos slides originais de Jussara Almeida e Virgílio Almeida

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

Aprendizagem de Máquinas

Aprendizagem de Máquinas Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Aprendizagem de Máquinas DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Aprendizagem de Máquinas

Leia mais

IN Redes Neurais

IN Redes Neurais IN0997 - Redes Neurais Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática - CIn Departamento de Sistemas da Computação aluizioa@cin.ufpe.br Conteúdo Objetivos Quem usa

Leia mais

Algoritmo Genético. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Algoritmo Genético. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Algoritmo Genético Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução 2. Conceitos Básicos 3. Aplicações 4. Algoritmo 5. Exemplo Introdução São técnicas de busca

Leia mais

Aprendizado de Máquina. Combinando Classificadores

Aprendizado de Máquina. Combinando Classificadores Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquina Combinando Classificadores David Menotti, Ph.D. web.inf.ufpr.br/menotti Introdução O uso de vários classificadores

Leia mais

lnteligência Artificial Introdução ao Aprendizado por Reforço (Reinforcement Learning)

lnteligência Artificial Introdução ao Aprendizado por Reforço (Reinforcement Learning) lnteligência Artificial Introdução ao Aprendizado por Reforço (Reinforcement Learning) Processo Decisório de Markov e Aprendizado por Reforço Quando falamos sobre Processo decisório de Markov e formalizamos

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Aprendizado de Máquina Inteligência Artificial Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

3 Trabalhos Relacionados

3 Trabalhos Relacionados 3 Trabalhos Relacionados Este capítulo apresenta, em linhas gerais, dois trabalhos relacionados que contribuíram de alguma forma para a concepção e desenvolvimento do método de verificação de sistemas

Leia mais

UTILIZAÇÃO DE APRENDIZADO POR REFORÇO PARA APRENDER A ESTRATÉGIA DO JOGO DA VELHA

UTILIZAÇÃO DE APRENDIZADO POR REFORÇO PARA APRENDER A ESTRATÉGIA DO JOGO DA VELHA Anais do 12 O Encontro de Iniciação Científica e Pós-Graduação do ITA XII ENCITA / 2006 Instituto Tecnológico de Aeronáutica São José dos Campos SP Brasil Outubro 16 a19 2006 UTILIZAÇÃO DE APRENDIZADO

Leia mais

Redes Neurais não Supervisionadas: SOM

Redes Neurais não Supervisionadas: SOM Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais não Supervisionadas: SOM DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos

Leia mais

IA - Planejamento II

IA - Planejamento II PO IA - Planejamento II Professor Paulo Gurgel Pinheiro MC906A - Inteligência Articial Instituto de Computação Universidade Estadual de Campinas - UNICAMP 16 de Novembro de 2010 1 / 48 PO http://www.ic.unicamp.br/

Leia mais

CEFET/RJ Inteligência Artificial (2018.1) Prof. Eduardo Bezerra Lista de exercícios 04

CEFET/RJ Inteligência Artificial (2018.1) Prof. Eduardo Bezerra Lista de exercícios 04 . CEFET/RJ Inteligência Artificial (2018.1) Prof. Eduardo Bezerra (ebezerra@cefet-rj.br) Lista de exercícios 04 Créditos: essa lista de exercícios contém a tradução dos exercícios disponibilizados na disciplina

Leia mais

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz

Leia mais

3. Resolução de problemas por meio de busca

3. Resolução de problemas por meio de busca Inteligência Artificial - IBM1024 3. Resolução de problemas por meio de busca Prof. Renato Tinós Local: Depto. de Computação e Matemática (FFCLRP/USP) 1 Principais Tópicos 3. Resolução de problemas por

Leia mais

1 Introdução 1.1. Motivação

1 Introdução 1.1. Motivação 1 Introdução 1.1. Motivação O setor elétrico em todo o mundo vem sofrendo um processo de transformação, quer no campo político, quer no econômico. A privatização e a desregulamentação do sistema elétrico

Leia mais

UFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística

UFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística UFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística INE6105-Introdução à Robótica Prof. Mauro Roisemberg Arkin. Ronald C. Behavior-Based Robotics

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

Resumo. Como um agente busca de seqüência de ações para alcançar seus objetivos.

Resumo. Como um agente busca de seqüência de ações para alcançar seus objetivos. Resumo Inteligência Artificial Russel e Norvig Capítulos 3,4 e 5 Prof. MsC Ly Freitas UEG Resolução de problemas por meio de busca Como um agente busca de seqüência de ações para alcançar seus objetivos.

Leia mais

Estrutura comum dos AEs

Estrutura comum dos AEs Estrutura comum dos AEs Os algoritmos estudados seguem o seguinte padrão para modelagem dos sistemas evolutivos: Uma população de tamanho constante m evolui sobre o tempo A população atual é utilizada

Leia mais

CONEXIONISMO EM SISTEMAS TUTORES INTELIGENTES

CONEXIONISMO EM SISTEMAS TUTORES INTELIGENTES CONEIONISMO EM SISTEMAS TUTORES INTELIGENTES Francisco Ramos de Melo 1, 2, 4, Sirlon Diniz de Carvalho 1, 3, 4, Weber Martins 4, Lauro Eugênio Guimarães Nalini 4 e Edna Lucia Flores 1 1 Universidade Federal

Leia mais

Algoritmos Genéticos. Estéfane G. M. de Lacerda DCA/UFRN Outubro/2008

Algoritmos Genéticos. Estéfane G. M. de Lacerda DCA/UFRN Outubro/2008 Estéfane G. M. de Lacerda DCA/UFRN Outubro/2008 Introdução São técnicas de busca e otimização. É a metáfora da teoria da evolução das espécies iniciada pelo Fisiologista e Naturalista inglês Charles Darwin.

Leia mais

SISTEMAS TUTORES INTELIGENTES BASEADOS EM MAPAS AUTO- ORGANIZÁVEIS

SISTEMAS TUTORES INTELIGENTES BASEADOS EM MAPAS AUTO- ORGANIZÁVEIS SISTEMAS TUTORES INTELIGENTES BASEADOS EM MAPAS AUTO- ORGANIZÁVEIS Sirlon Diniz de Carvalho 1, 2, 4, Francisco Ramos de Melo 1, 2, 3, Weber Martins 1, 5, Lauro Eugênio Guimarães Nalini 1, 5, Edna Lucia

Leia mais

Paradigmas de Aprendizagem

Paradigmas de Aprendizagem Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Mapas Auto-Organizáveis Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

APLICAÇÃO DO ALGORITMO SARSA NA COLETA DE LIXO - ESTUDO DO PARÂMETRO ALPHA 1

APLICAÇÃO DO ALGORITMO SARSA NA COLETA DE LIXO - ESTUDO DO PARÂMETRO ALPHA 1 APLICAÇÃO DO ALGORITMO SARSA NA COLETA DE LIXO - ESTUDO DO PARÂMETRO ALPHA 1 Darlinton Prauchner 2, Rogério Martins 3, Edson Padoin 4. 1 Trabalho de conclusão de curso realiazado no curso de Ciência da

Leia mais

Aprendizado por Reforço

Aprendizado por Reforço Aprendizado por Reforço SCC5865-Robótica Roseli A F Romero Introdução O modelo padrão de aprendizado por reforço Aprendizado por Reforço Formalmente, o modelo consiste de: Um conjunto discreto de estados

Leia mais

7 Congresso de Pós-Graduação MODELAGEM DE BASE DE CONHECIMENTO PARA TAREFA DE CLASSIFICAÇÃO EM MINERAÇÃO DE DADOS

7 Congresso de Pós-Graduação MODELAGEM DE BASE DE CONHECIMENTO PARA TAREFA DE CLASSIFICAÇÃO EM MINERAÇÃO DE DADOS 7 Congresso de Pós-Graduação MODELAGEM DE BASE DE CONHECIMENTO PARA TAREFA DE CLASSIFICAÇÃO EM MINERAÇÃO DE DADOS Autor(es) LIDIA MARTINS DA SILVA Orientador(es) ANA ESTELA ANTUNES DA SILVA 1. Introdução

Leia mais

Processos aleatórios - características

Processos aleatórios - características Capítulo 6 Processos aleatórios - características temporais 6.1 O conceito de processo aleatório Um processo aleatório ou estocástico é um espaço de amostras em que cada elemento é associado a uma função

Leia mais

Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995))

Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995)) Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995)) que realiza simultaneamente agrupamento e visualização SOM usa aprendizagem não supervisionada para mapear dados

Leia mais

REDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM)

REDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM) REDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM) APRENDIZADO COMPETITIVO Os algoritmos de aprendizado não-supervisionado são geralmente baseados em uma forma de competição entre os neurônios. O método

Leia mais

Self Organizing Maps - Redes de Kohonen

Self Organizing Maps - Redes de Kohonen Self Organizing Maps - Redes de Kohonen 1. Redes auto organizáveis Existe uma classe de redes neurais artificias que possuem a capacidade de auto organização, sendo por isto chamadas de redes auto organizáveis.

Leia mais

USO DE HEURÍSTICAS OBTIDAS POR MEIO DE DEMONSTRAÇÕES PARA ACELERAÇÃO DO APRENDIZADO POR REFORÇO

USO DE HEURÍSTICAS OBTIDAS POR MEIO DE DEMONSTRAÇÕES PARA ACELERAÇÃO DO APRENDIZADO POR REFORÇO USO DE HEURÍSTICAS OBTIDAS POR MEIO DE DEMONSTRAÇÕES PARA ACELERAÇÃO DO APRENDIZADO POR REFORÇO DANILO H. PERICO, REINALDO A. C. BIANCHI Centro Universitário da FEI, Av. Humberto de Alencar Castelo Branco,

Leia mais

1. Computação Evolutiva

1. Computação Evolutiva Computação Bioinspirada - 5955010-1 1. Computação Evolutiva Prof. Renato Tinós Programa de Pós-Graduação Em Computação Aplicada Depto. de Computação e Matemática (FFCLRP/USP) 2 Computação Bioinspirada

Leia mais

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de

Leia mais

FACULDADE PITÁGORAS. Curso Superior em Tecnologia Redes de Computadores e Banco de dados

FACULDADE PITÁGORAS. Curso Superior em Tecnologia Redes de Computadores e Banco de dados FACULDADE PITÁGORAS Curso Superior em Tecnologia Redes de Computadores e Banco de dados Matemática Computacional Prof. Ulisses Cotta Cavalca TEORIA DOS NÚMEROS Belo Horizonte/MG

Leia mais

Desenvolvimento da Pesquisa

Desenvolvimento da Pesquisa Desenvolvimento da Pesquisa Ricardo de Almeida Falbo Metodologia de Pesquisa Departamento de Informática Universidade Federal do Espírito Santo Agenda Modelo de Processo de Pesquisa Estratégias de Pesquisa

Leia mais

INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO

INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO Prof. Msc. Saulo Popov Zambiasi (saulopz@gmail.com) Informação - ICPG - Criciuma - SC 1 Características Gerais, operadores, algoritmo.

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

ALGORITMO GENÉTICO COMO REPRESENTAÇÃO DAS MUTAÇÕES NA BIOLOGIA

ALGORITMO GENÉTICO COMO REPRESENTAÇÃO DAS MUTAÇÕES NA BIOLOGIA Patrocínio, MG, outubro de 2016 ENCONTRO DE PESQUISA & EXTENSÃO, 3., 2016, Patrocínio. Anais... Patrocínio: IFTM, 2016. ALGORITMO GENÉTICO COMO REPRESENTAÇÃO DAS MUTAÇÕES NA BIOLOGIA Igor Acassio Melo

Leia mais

M. Eisencraft 6.3 Funções de correlação 81. R YX (τ) R YY (τ). (6.19) R XY (τ) = R YX ( τ) (6.20)

M. Eisencraft 6.3 Funções de correlação 81. R YX (τ) R YY (τ). (6.19) R XY (τ) = R YX ( τ) (6.20) M. Eisencraft 6.3 Funções de correlação 81 R XY (τ) = E[X(t)Y(t+τ)] e (6.17) R YX (τ) = E[Y(t)X(t+τ)]. (6.18) As propriedades de correlação de dois processos X(t) e Y(t) podem ser mostradas convenientemente

Leia mais

Eisencraft e Loiola 2.1 Probabilidade 37. Para resolver problemas de probabilidades são necessários 3 passos:

Eisencraft e Loiola 2.1 Probabilidade 37. Para resolver problemas de probabilidades são necessários 3 passos: Eisencraft e Loiola 2.1 Probabilidade 37 Modelo matemático de experimentos Para resolver problemas de probabilidades são necessários 3 passos: a Estabelecimento do espaço das amostras b Definição dos eventos

Leia mais

Aprendizagem por Reforço

Aprendizagem por Reforço Aprendizagem por Reforço Motivação! Como um agente aprende a escolher ações apenas interagindo com o ambiente? n n Muitas vezes, é impraticável o uso de aprendizagem supervisionada w Como obter exemplos

Leia mais

1. Introdução. 1.1.Objetivo

1. Introdução. 1.1.Objetivo 1. Introdução 1.1.Objetivo O objetivo desta dissertação é desenvolver um sistema de controle por aprendizado acelerado e Neuro-Fuzzy baseado em técnicas de inteligência computacional para sistemas servo-hidráulicos

Leia mais

6 Clustering: Definindo Grupos Estratégicos

6 Clustering: Definindo Grupos Estratégicos 6 Clustering: Definindo Grupos Estratégicos 6.1 Introdução Não é difícil deduzir que as 60 empresas distribuidoras de energia elétrica, operantes no SEB, apresentam características heterogêneas. Entretanto,

Leia mais

A Computação e as Classificações da Ciência

A Computação e as Classificações da Ciência A Computação e as Classificações da Ciência Ricardo de Almeida Falbo Metodologia de Pesquisa Departamento de Informática Universidade Federal do Espírito Santo Agenda Classificações da Ciência A Computação

Leia mais

Modelos: Verificação, Validação e Experimentação

Modelos: Verificação, Validação e Experimentação UNIVERSIDADE FEDERAL DO ESPÍRITO SANTO Modelos: Verificação, Validação e Experimentação Prof. Luís César da Silva (UFES/CCA) ESA 01 Engenharia de Sistemas Modelos Validados e Confiáveis Fundamentos: (Naylor

Leia mais

Aprendizado por Reforço usando Aproximação

Aprendizado por Reforço usando Aproximação Aprendizado por Reforço usando Aproximação de Funções Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aproximação de Funções 2. Do the evolution 1 Aproximação de Funções Função Utilidade

Leia mais

UMA INTRODUÇÃO AOS ALGORITMOS GENETICOS

UMA INTRODUÇÃO AOS ALGORITMOS GENETICOS UMA INTRODUÇÃO AOS ALGORITMOS GENETICOS Uma visão geral dos GAs Um algoritmo genético é uma classe de algoritmo de busca. O algoritmo procura uma solução dentro de um espaço para um problema de otimização.

Leia mais

Algoritmos Genéticos. Princípio de Seleção Natural. Sub-áreas da Computação Evolutiva. Idéias básicas da CE. Computação Evolutiva

Algoritmos Genéticos. Princípio de Seleção Natural. Sub-áreas da Computação Evolutiva. Idéias básicas da CE. Computação Evolutiva Computação Evolutiva Algoritmos Genéticos A computação evolutiva (CE) é uma área da ciência da computação que abrange modelos computacionais inspirados na Teoria da Evolução das Espécies, essencialmente

Leia mais

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial 1 Redes Neurais - Definição O que é Rede Neural ou Rede Neuronal Artificial (RNA)? É um modelo computacional que objetiva

Leia mais

Mapas Auto-Organizáveis de Kohonen SOM

Mapas Auto-Organizáveis de Kohonen SOM Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Inteligência Artificial (Lista 1) Prof. Alex F. V. Machado

Inteligência Artificial (Lista 1) Prof. Alex F. V. Machado Ministério da Educação Instituto Federal de Educação, Ciência e Tecnologia Sudeste de Minas Gerais - Campus Rio Pomba Bacharelado em Ciência da Computação 1) Considere os termos abaixo e complete. Inteligência

Leia mais

TUTORIA ADAPTATIVA AO APRENDIZ BASEADA EM REDES NEURAIS ARTIFICIAIS

TUTORIA ADAPTATIVA AO APRENDIZ BASEADA EM REDES NEURAIS ARTIFICIAIS TUTORIA ADAPTATIVA AO APRENDIZ BASEADA EM REDES NEURAIS ARTIFICIAIS Sirlon Diniz de Carvalho Universidade Federal de Goiás Faculdades Alves Faria sirlon@pireneus.eee.ufg.br Weber Martins Universidade Federal

Leia mais

Estudo sobre decodificação iterativa usando códigos de treliça

Estudo sobre decodificação iterativa usando códigos de treliça Revista de Engenharia e Pesquisa Aplicada, Volume 2, Número 1, 2016 Estudo sobre decodificação iterativa usando códigos de treliça Souza, I. M. M. Escola Politécnica de Pernambuco Universidade de Pernambuco

Leia mais

Aula 7 RNA Redes Auto-Organizáveis de Kohonen

Aula 7 RNA Redes Auto-Organizáveis de Kohonen 2COP229 Aula 7 RNA Redes Auto-Organizáveis de Kohonen 2COP229 Sumário 1- Introdução 2- Processo de Aprendizado Competitivo 3- Mapas auto-organizáveis de Kohonen (SOM) 4- Projeto Prático 1-Introdução 2COP229

Leia mais

3 Algoritmos Genéticos

3 Algoritmos Genéticos Técnicas de Inteligência Computacional 33 3 Algoritmos Genéticos Este capítulo resume os principais conceitos sobre o algoritmo evolucionário empregado nesta dissertação. É apresentada uma breve explicação

Leia mais

Considerações sobre a Condição Inicial na Construção do Diagrama de Bifurcação para o Mapa Logístico

Considerações sobre a Condição Inicial na Construção do Diagrama de Bifurcação para o Mapa Logístico Trabalho apresentado no DINCON, Natal - RN, 2015. Proceeding Series of the Brazilian Society of Computational and Applied Mathematics Considerações sobre a Condição Inicial na Construção do Diagrama de

Leia mais

Mapas Auto-Organizáveis de Kohonen SOM

Mapas Auto-Organizáveis de Kohonen SOM Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

ANÁLISE DE COMPLEXIDADE DOS ALGORITMOS

ANÁLISE DE COMPLEXIDADE DOS ALGORITMOS 1/18 ANÁLISE DE COMPLEXIDADE DOS ALGORITMOS Algoritmos 2/18 Algoritmos Algoritmo - sequência de instruções necessárias para a resolução de um problema bem formulado (passíveis de implementação em computador)

Leia mais

Distribuição T - Student. Prof. Herondino S. F.

Distribuição T - Student. Prof. Herondino S. F. Distribuição T - Student Prof. Herondino S. F. Distribuição T-Student A distribuição T de Student é uma distribuição de probabilidade estatística, publicada por um autor que se chamou de Student, pseudônimo

Leia mais

Durante a evolução das arquiteturas de computadores e principalmente dos Sistemas Operacionais, muitas tecnologias tiveram que ser aprimoradas para

Durante a evolução das arquiteturas de computadores e principalmente dos Sistemas Operacionais, muitas tecnologias tiveram que ser aprimoradas para UM ESTUDO SOBRE O MECANISMO DE PAGINAÇÃO DE MEMÓRIA E OS ALGORITMOS DE SUBSTITUIÇÃO DE PÁGINAS FIFO E LRU Fernando Sales Ferreira, fernandobrabat@hotmail.com William Antônio Faria Da Silva, William_8716@hotmail.com

Leia mais

Algoritmos Genéticos. Pontos fracos dos métodos tradicionais. Características de alguns problemas. Tamanho do espaço de busca- Ex. caixeiro viajante:

Algoritmos Genéticos. Pontos fracos dos métodos tradicionais. Características de alguns problemas. Tamanho do espaço de busca- Ex. caixeiro viajante: Algoritmos Genéticos Prof. Luis Otavio Alvares INE/UFSC Características de alguns problemas Tamanho do espaço de busca- Ex. caixeiro viajante: 10 cidades: 181.000 soluções 20 cidades: 10.000.000.000.000

Leia mais

Meta-análise de impactos: uso de evidências para priorizar investimentos educacionais

Meta-análise de impactos: uso de evidências para priorizar investimentos educacionais ANDRÉ PORTELA Meta-análise de impactos: uso de evidências para priorizar investimentos educacionais André Portela Souza EESP/FGV São Paulo 16 de Setembro de 2016 Apresentação I. A importância das tomadas

Leia mais

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a

Leia mais

Introdução aos Algoritmos Genéticos

Introdução aos Algoritmos Genéticos Introdução aos Algoritmos Genéticos Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Algoritmos Genéticos: Introdução Introduzidos

Leia mais

IF-705 Automação Inteligente Sistemas de Controle - Fundamentos

IF-705 Automação Inteligente Sistemas de Controle - Fundamentos IF-705 Automação Inteligente Sistemas de Controle - Fundamentos Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática - CIn Departamento de Sistemas da Computação aluizioa@cin.ufpe.br

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas

Leia mais

Análise Estatística de Experimentos

Análise Estatística de Experimentos Agosto, 2013 Sumário 1 Termos e conceitos 2 Experimentos Problema Planejamento Protocolo 3 Conceitos Testes 4 Um Fator Dois Fatores Fatorial Completo 5 Pesquisa Científica Termos e conceitos Processo de

Leia mais

Departamento de Electrónica, Telecomunicações e Informática. 1 Entrega do Trabalho e avaliação. 2 Sintetizador. Processamento Digital de Sinal

Departamento de Electrónica, Telecomunicações e Informática. 1 Entrega do Trabalho e avaliação. 2 Sintetizador. Processamento Digital de Sinal Departamento de Electrónica, Telecomunicações e Informática Processamento Digital de Sinal Trabalho Prático n o 1: Sintetizador de Música Neste trabalho pretende-se que os alunos construam um sintetizador

Leia mais

Aprendizagem de Máquina - 2. Prof. Júlio Cesar Nievola PPGIa - PUCPR

Aprendizagem de Máquina - 2. Prof. Júlio Cesar Nievola PPGIa - PUCPR Aprendizagem de Máquina - 2 Prof. Júlio Cesar Nievola PPGIa - PUCPR Inteligência versus Aprendizado Aprendizado é a chave da superioridade da Inteligência Humana Para que uma máquina tenha Comportamento

Leia mais

Inteligência Artificial

Inteligência Artificial Universidade Federal de Campina Grande Unidade Acadêmica de Sistemas e Computação Curso de Pós-Graduação em Ciência da Computação Inteligência Artificial Representação do Conhecimento (Parte I) Prof. a

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Aprendizado de Máquina A necessidade de inserir aprendizado nas máquinas surgiu após a construção dos Sistemas Especialistas (SEs). Os primeiros SEs não possuíam mecanismo de aprendizado e tornavam-se

Leia mais

4 Modelo de Apoio à Decisão Voltado para o Produto

4 Modelo de Apoio à Decisão Voltado para o Produto 4 Modelo de Apoio à Decisão Voltado para o Produto este capítulo será apresentado o modelo de apoio à decisão voltado para o produto. Muitos investimentos em Pesquisa e Desenvolvimento são dirigidos para

Leia mais

5 Resultados Dados artificiais Convergência à mediana e à média com dados artificiais

5 Resultados Dados artificiais Convergência à mediana e à média com dados artificiais 5 Resultados Os resultados da aplicação do método proposto estão estruturados de forma a evidenciar: 1. A convergência numérica do algoritmo proposto nesta tese para a mediana e para a média de grupos

Leia mais

Cap. 0 - Introdução à Estatística Computacional

Cap. 0 - Introdução à Estatística Computacional Introdução à Estatística ESQUEMA DO CAPÍTULO 0.1 VISÃO GERAL DOS MÉTODOS COMPUTACIONALMENTE INTENSIVOS EM ESTATÍSTICA 1 mente Intensivos Definição: Do Handbook of Computational Statistics: Concepts and

Leia mais

Rafael Ribeiro Alexandra Souza Thiago Barcelos Leandro Silva

Rafael Ribeiro Alexandra Souza Thiago Barcelos Leandro Silva Mensurando o desenvolvimento do Pensamento Computacional por meio de Mapas Auto-Organizáveis: Comparação de métricas de complexidade de Software com Dr. Scratch e CT-Test Rafael Ribeiro Alexandra Souza

Leia mais

4 Implementação Computacional

4 Implementação Computacional 4 Implementação Computacional 4.1. Introdução Neste capítulo é apresentada a formulação matemática do problema de otimização da disposição das linhas de ancoragem para minimizar os deslocamentos (offsets)

Leia mais

UMA PROPOSTA DE DECOMPOSIÇÃO DE SISTEMAS LINEARES PARA DMPC

UMA PROPOSTA DE DECOMPOSIÇÃO DE SISTEMAS LINEARES PARA DMPC UMA PROPOSTA DE DECOMPOSIÇÃO DE SISTEMAS LINEARES PARA DMPC R. R. ROCHA 1 e L. C. OLIVEIRA-LOPES 1 1 Universidade Federal de Uberlândia, Faculdade de Engenharia Química E-mail para contato: rosi.rocha28@gmail.com;

Leia mais

2 Definição do Problema

2 Definição do Problema Definição do Problema. Formulação Matemática O problema do Fluxo Máximo entre todos os pares de nós surge no contexto de redes, estas representadas por grafos, e deriva-se do problema singular de fluxo

Leia mais

Aprendizado por imitação usando Redes Neurais

Aprendizado por imitação usando Redes Neurais Universidade de São Paulo Instituto de Ciências Matemáticas e Computação Aprendizado por imitação usando Redes Neurais Aluna: Valéria de Carvalho Santos Profª. Dra. Roseli A. F. Romero 2 Sumário Introdução

Leia mais

ANÁLISE DE RESULTADOS

ANÁLISE DE RESULTADOS ANÁLISE DE RESULTADOS Conteúdo 2 1. Planejamento de Experimentos 2. Introdução Medidas de Desempenho Análise Estatística dos Resultados Comparação de Resultados Procedimento para análise de resultados

Leia mais

Aprendizado Evolutivo: Introdução aos Algoritmos Genéticos

Aprendizado Evolutivo: Introdução aos Algoritmos Genéticos Aprendizado Evolutivo: Introdução aos Algoritmos Genéticos SCC-230 Inteligência Artificial Thiago A. S. Pardo Solange O. Rezende 1 Computação Evolutiva (CE) Trata de sistemas para a resolução de problemas

Leia mais

Controle Inteligente de Tempo Livre em Tutoria Multissessão:

Controle Inteligente de Tempo Livre em Tutoria Multissessão: Controle Inteligente de Tempo Livre em Tutoria Multissessão: Concepção, Implementação e Avaliação Empírica Weber Martins 1, Viviane M. Gomes 2, Lauro G. Nalini 3, Carolina M. de Carvalho 3 1 Escola de

Leia mais

Técnicas de Projeto de Algoritmos

Técnicas de Projeto de Algoritmos UNIVERSIDADE NOVE DE JULHO - UNINOVE Pesquisa e Ordenação Técnicas de Projeto de Algoritmos Material disponível para download em: www.profvaniacristina.com Profa. Vânia Cristina de Souza Pereira 03 _ Material

Leia mais

Aprendizado por Reforço para um Sistema Tutor Inteligente sem Modelo

Aprendizado por Reforço para um Sistema Tutor Inteligente sem Modelo Aprendizado por Reforço para um Sistema Tutor Inteligente sem Modelo Explícito do Aprendiz Marcus Vinícius Carvalho Guelpeli Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica São José

Leia mais

7 Conclusões e desenvolvimentos futuros

7 Conclusões e desenvolvimentos futuros 7 Conclusões e desenvolvimentos futuros 7.1 Conclusões Este trabalho apresentou novas soluções para a determinação da posição de terminais de comunicações móveis com base em medidas de ToA. Nos métodos

Leia mais

Profa. Lidia Rodella UFPE-CAA

Profa. Lidia Rodella UFPE-CAA Profa. Lidia Rodella UFPE-CAA O que é estatística? É conjunto de técnicas que permite, de forma sistemática, coletar, organizar, descrever, analisar e interpretar dados oriundos de estudos ou experimentos,

Leia mais

Métodos de Busca. Inteligência Artificial. Algoritmos Genéticos. Algoritmos Evolucionários. Prof. Ms. Luiz Alberto Contato:

Métodos de Busca. Inteligência Artificial. Algoritmos Genéticos. Algoritmos Evolucionários. Prof. Ms. Luiz Alberto Contato: Inteligência Artificial Prof. Ms. Luiz Alberto Contato: lasf.bel@gmail.com Métodos de Busca Busca Cega ou Exaustiva: Não sabe qual o melhor nó da fronteira a ser expandido. Apenas distingue o estado objetivo

Leia mais

Redes Competitivas e de Kohonen

Redes Competitivas e de Kohonen Redes Competitivas e de Kohonen Redes Competitivas Até agora as redes estudadas possuíam muitas saídas ativas, no aprendizagem competitivo somente uma unidade de saída pode estar ativa a cada momento.

Leia mais

Técnicas de Inteligência Artificial

Técnicas de Inteligência Artificial Universidade do Sul de Santa Catarina Ciência da Computação Técnicas de Inteligência Artificial Aula 9 Algoritmos Genéticos Max Pereira Algoritmos Genéticos Algoritmos Genéticos São técnicas de busca e

Leia mais