EMERGÊNCIA DE SINCRONICIDADE EM UMA REDE AUTO-ORGANIZÁVEL DE NEURÔNIOS PULSANTES: USO DE ALGORITMOS GENÉTICOS PARA A SINTONIA DO MODELO

Tamanho: px
Começar a partir da página:

Download "EMERGÊNCIA DE SINCRONICIDADE EM UMA REDE AUTO-ORGANIZÁVEL DE NEURÔNIOS PULSANTES: USO DE ALGORITMOS GENÉTICOS PARA A SINTONIA DO MODELO"

Transcrição

1 GABRIELA ELEUTÉRIO SOARES EMERGÊNCIA DE SINCRONICIDADE EM UMA REDE AUTO-ORGANIZÁVEL DE NEURÔNIOS PULSANTES: USO DE ALGORITMOS GENÉTICOS PARA A SINTONIA DO MODELO Belo Horizonte MG Agosto de 2010

2 GABRIELA ELEUTÉRIO SOARES EMERGÊNCIA DE SINCRONICIDADE EM UMA REDE AUTO-ORGANIZÁVEL DE NEURÔNIOS PULSANTES: USO DE ALGORITMOS GENÉTICOS PARA A SINTONIA DO MODELO Dissertação apresentada ao Curso de Mestrado em Modelagem Matemática e Computacional do Centro Federal de Educação Tecnológica de Minas Gerais, como requisito parcial à obtenção do título de Mestre em Modelagem Matemática e Computacional. Área de concentração: Sistemas Inteligentes Orientador: Prof. Dr. Henrique Elias Borges Centro Federal de Educação Tecnológica de Minas Gerais Co-orientador: Prof. Dr. Rogério Martins Gomes Centro Federal de Educação Tecnológica de Minas Gerais MESTRADO EM MODELAGEM MATEMÁTICA E COMPUTACIONAL CENTRO FEDERAL DE EDUCAÇÃO TECNOLÓGICA DE MINAS GERAIS DIRETORIA DE PESQUISA E PÓS-GRADUAÇÃO Belo Horizonte MG Agosto de 2010

3 Folha de aprovação do projeto. Esta folha será fornecida pelo Programa de Pós-Graduação e deverá substituir esta.

4 Resumo A teoria de seleção de grupos neuronais (TNGS - theory of neuronal group selection) proposta por Edelman argumenta que a menor unidade funcional do cérebro não é um neurônio, mas sim um grupo neuronal. Um grupo neuronal pode ser definido como um conjunto de neurônios localizado em uma certa região do córtex, fortemente acoplados entre si, e que disparam na mesma frequência ou em sincronia. Além disso, a neurociência computacional tem buscado compreer as funções e mecanismos do sistema nervoso por meio da construção de modelos matemáticos mais realistas de redes de neurônios e da realização de simulações computacionais em larga escala. Um desses modelos de neurônios pulsantes que apresenta excelente desempenho computacional, além de preservar muitas das características biológicas desejáveis, é o modelo de Izhikevich (2003). So assim, este trabalho visa contribuir para o estudo da emergência de sincronicidade de uma rede auto-organizável de neurônios pulsantes a partir de uma rede neuronal composta de 100 neurônios idênticos de Izhikevich, cada qual realizando N sinapses com os outros neurônios da rede. A corrente total recebida por um neurônio e a sua condutância foram modeladas conforme o modelo proposto por Muresan e Savin (2007) e os efeitos de plasticidade depente do tempo (STDP) foram modelados conforme os métodos propostos por Song, Miller e Abbott (2000). Assim, além dos parâmetros associados ao modelo de neurônio, os demais parâmetros passíveis de serem ajustados são: o número de ligações sinápticas entre os neurônios e a taxa de decaimento da condutância. Um algoritmo genético foi utilizado para sintonizar os parâmetros de uma rede neural composta de neurônios idênticos, resultando em um grupo neuronal auto-organizado nas frequências que variaram de 2 HZ a 34 HZ. Visando avaliar o efeito do tipo de neurônio sobre o comportamento global do grupo neuronal, um segundo conjunto de simulações foi realizado, no qual, cada um dos 100 neurônios da rede teve seus parâmetros ajustados individualmente. Assim como na simulação anterior, foi possível observar que a rede apresentou o mesmo comportamento, isto é, auto-organização e oscilações síncronas nas frequências entre 2 Hz e 34 Hz. Além disso, uma caracterização dos tipos de neurônios presentes e de suas respectivas densidades foi realizada para cada frequência de oscilação do grupo neuronal produzido. PALAVRAS-CHAVE: Neurônios pulsantes, grupo neuronal, algoritmo genético.

5 Abstract The theory of neuronal group selection - TNGS proposed by Edelman states that the most basic unit in the cortical area of the brain is not a neuron, but a neuronal group. A neuronal group can be defined as a cluster of localized neural cells, tightly coupled, that fire in the same frequency or synchronously. Moreover, computational neuroscience aims to understand the functions and mechanisms of the nervous system by constructing realistic mathematical models of neural networks and computational simulations in large scale. One of these spiking neuron models featuring high computational performance and preserving many of the desirable biological characteristics is the model proposed by Izhikevich (2003). Thus, this work aims to contribute to the study of the emergence of synchronicity in a self-organizing network of spiking neurons. Thus, a set of computational simulations was performed, involving the formation of neuronal groups from a neural network composed of 100 identical neurons of the Izhikevich model, each one carrying N sinaptic connections with other neurons in the network. The total current received by a neuron and its conductance were modeled by Muresan and Savin (2007) and the plasticity effects of the spike-timing depent plasticity (STDP) were modeled according to the methods proposed by Song, Miller and Abott (2000). Therefore, besides the parameters of the neuron model, the other parameters that could be adjusted are the number of synaptic connections between neurons and the decay rate of the conductance. A genetic algorithm was used to tune the parameters of the neural network composed of identical neurons, resulting in self-organized neuronal groups at frequencies ranging from 2 to 34 Hz. In order to assess the effect of the neuron type on the global behavior of the neuronal group, a second set of simulations was performed, in which each of the 100 neurons of the network had its parameters tuned individually by genetic algorithm. As in the previous simulation, it was observed that network presented the same behavior of the previous simulation, ie, self-organization and synchronous oscillations at frequencies between 2 Hz and 34 Hz. KEYWORDS: Spiking neurons, neural networks, neuronal group, genetic algorithm.

6 Lista de Figuras 1 Comparação entre vários modelos de neurônios pulsantes p Comportamento de disparos das seis classes mais importantes presentes no neocórtex p Classes de padrões de disparos dos neurônios mais importantes incluindo os neurônios tálamo-corticais e ressonadores p Influência dos parâmetros a, b, c e d no modelo de neurônio de Izhikevich p Faixa de valores dos parâmetros do modelo de neurônio de Izhikevich com relação ao tipo de neurônio modelado p Comportamentos neuro-computacionais dos neurônios pulsantes... p Função de modificação do peso sináptico p Rede neural disparando assincronamente p Rede neural apresentando disparos quase ordenados na frequência de 10 Hz p Rede neuronal disparando sincronamente na frequência de 4 Hz... p Grupos com diferentes frequências em função do parâmetro a. Em (a), a = 0.02, em (b), a = 0.04 e em (c), a = p Plano de fase para b = 0.2 (esquerda) e b = 0.25 (direita) p Grupos com frequências diferentes em função da alteração do parâmetro b. Em (a), b = 0.2 e em (b), b = p Influência da constante de tempo na emergência de sincronicidade. Em (a), τ = 1ms, em (b), τ = 5ms, e (c), τ = 30ms p. 36

7 15 Influência do número de sinapses, por neurônio, em uma rede com 100 neurônios, na emergência de sincronicidade. Em (a), 3 sinapses por neurônio, em (b), 10 sinapses por neurônio, em (c), 20 sinapses por neurônio e em (d), 30 sinapses por neurônio p Estrutura do cromossomo para a simulação de ajuste da função objetivo. Sinapses é o número de ligações sinápticas, τ é a taxa de decaimento da condutância e a e d são parâmetros do modelo de Izhikevich p Estrutura do cromossomo para a simulação da rede de neurônios homogênea. Sinapses é o número de ligações sinápticas, τ é a taxa de decaimento da condutância e a, b, c e d são parâmetros do modelo de Izhikevich p Estrutura do cromossomo para a simulação da rede de neurônios heterogênea, com a i, b i, c i e d i representando os parâmetros do modelo de Izhikevich do i-ésimo neurônio da rede p Seleção roleta russa, onde cada indivíduo da população é representado na roleta proporcionalmente ao valor da função de fitness. Os indivíduos com melhores valores da função de fitness recebem uma porção maior da roleta p Rede neural disparando em sincronia. Em (a), os disparos de cada um dos 100 neurônio em função do tempo; em (b) a recuperação do potencial de membrana do neurônio 70 e em (c) o potencial de membrana do neurônio p Quantidade de neurônios disparados em função do tempo p Parâmetros da função objetivo p Comportamento da função objetivo com ocorrência de sincronicidade. p Comportamento da função objetivo sem ocorrência de sincronicidade com poucos neurônios disparando p Comportamento da função objetivo sem ocorrência de sincronicidade com muitos neurônios disparando p Resultado obtido para frequência de 2 Hz p. 54

8 27 Resultado obtido para frequência de 34 Hz p. 54

9 Lista de Tabelas 1 Intervalo de valores dos parâmetros para a simulação de ajuste da função objetivo p Valores da função objetivo para a frequência de 4 Hz em 11 execuções do algoritmo genético sob idênticas condições iniciais p Valores da função objetivo para a frequência de 22 Hz em 11 execuções do algoritmo genético sob idênticas condições iniciais p Valores adotados em todas as simulações p Intervalo de valores dos parâmetros na simulação para determinação da maior frequência possível p Valores dos parâmetros obtidos para cada frequência pré-determinada. p Intervalo de valores dos parâmetros para a segunda etapa de simulações p Valores obtidos para frequências determinadas para a segunda etapa de simulações p Intervalo de valores dos parâmetros para a simulação da rede de neurônios distintos p Síntese dos valores obtidos nas simulações p Configuração da rede para frequência de 4 Hz p Configuração da rede para frequência de 16 Hz p Configuração da rede para frequência de 22 Hz p Densidade de neurônios presentes na rede: morfologia p Densidade de neurônios presentes na rede: comportamento p Classificação dos neurônios encontrados para a simulação com frequência de 4 Hz quanto ao tipo de comportamento p. 70

10 17 Classificação dos neurônios encontrados para a simulação com frequência de 16 Hz quanto ao tipo de comportamento p Classificação dos neurônios encontrados para a simulação com frequência de 28 Hz quanto ao tipo de comportamento p Matriz de sinapses para a rede com frequência de 4 Hz p Matriz de sinapses para a rede com frequência de 28 Hz p. 74

11 Dedico este trabalho aos meus pais e à minha família.

12 Agradecimentos Aos meus orientadores, Prof. Dr. Henrique Elias Borges e Prof. Dr. Rogério Martins Gomes pelo apoio, incentivo, disponibilidade e paciência. Agradeço pela orientação e conselhos dados em momentos difíceis que me deixaram mais tranquila. Aos meus pais Roberto e Mira que sempre me apoiaram nos meus estudos, permitindo chegar aonde cheguei. Ao meu irmão Guilherme que colaborou com a minha formação. À minha avó que com suas orações e preocupação sempre torceu e colaborou com o meu sucesso. À minha família que sempre me incentivou e me apoiou. Aos amigos da MatComp que estão presentes na minha vida desde o início da graduação servindo de apoio nos momentos difíceis e sempre dispostos a compartilhar cada conquista. À Jojô, com quem eu dividi um lar durante esses anos. Ao Magela que possibilitou a realização deste trabalho. Aos amigos do CEFET-MG, que me acompanharam durante essa caminhada e dividiram comigo bons e maus momentos. Em especial aos amigos Gustavo e Magela pela força e colaboração na reta final do trabalho. Ao Laboratório de Sistemas Inteligentes (LSI) e ao Centro de Computação Científica (CCC) pelos recursos disponibilizados para realização deste trabalho. Ao Centro Federal de Educação Tecnológica de Minas Gerais (CEFET-MG) e à FAPEMIG pelo apoio financeiro.

13 Lista de Abreviaturas e Siglas AG Algoritmo Genético CEFET-MG Centro Federal de Educação Tecnológica de Minas Gerais GPSI Grupo de Pesquisas em Sistemas Inteligentes LSI Laboratório de Sistemas Inteligentes STDP Spiking-time-depent plasticity TNGS Teoria de Seleção dos Grupos Neuronais (Theory of Neuronal Group Selection)

14 Sumário 1 INTRODUÇÃO p Aspectos gerais p TNGS - Teoria de seleção de grupos neuronais p Objetivos p Metodologia de pesquisa p Organização da dissertação p Redes de neurônios pulsantes p Alguns modelos de neurônios pulsantes p Comparação entre os modelos p Classificação dos neurônios p Principais classes dos neurônios p Modelo de Izhikevich p Propriedades neuro-computacionais observadas no modelo de Izhikevich p Modelo de sinapses p Spike-timing-depent plasticity (STDP) p Estudos anteriores p Emergência de sincronicidade p Parâmetros que afetam a emergência da sincronicidade.... p Sintonia dos parâmetros do modelo neural via algoritmos genéticos p Parâmetros analisados p. 38

15 3.2 Algoritmo genético p Função objetivo p Ajuste da função objetivo p Discussão dos resultados p Grupo neuronal homogêneo p Grupo neuronal heterogêneo p Classificação dos tipos de neurônios p Conclusão p Considerações finais p Contribuições p Dificuldades encontradas p Perspectivas de trabalhos futuros p. 65 Referências p. 66 Apêndice A -- Classificação dos neurônios quanto ao comportamento p. 70 Apêndice B -- Matrizes de sinapses p. 73 Anexo A -- CÓDIGOS DO MATLAB p. 75 A.1 Definição dos pesos da função objetivo p. 75 A.1.1 Grupo neuronal p. 75 A.1.2 Algoritmo genético p. 80 A.2 Rede de neurônios idênticos p. 83 A.2.1 Grupo neuronal p. 83 A.2.2 Algoritmo genético p. 89 A.3 Rede de neurônios distintos p. 91

16 A.3.1 Grupo neuronal p. 91 A.3.2 Algoritmo genético p. 98

17 16 1 INTRODUÇÃO 1.1 Aspectos gerais Inicialmente, as redes neurais foram desenvolvidas visando a compreensão do funcionamento do sistema nervoso, através de elementos computacionais primitivos que foram baseados nas propriedades neuronais conhecidas na época (1943) (ANDERSON, 1995). Com a evolução da área de redes neurais, a neurociência computacional passou a usar modelos matemáticos mais realistas de redes de neurônios e simulações em larga escala para compreer as funções e mecanismos do sistema nervoso. As redes neurais atuais visam o entimento do sistema nervoso, e para tanto é preciso criar modelos matemáticos computacionais que preservem as características encontradas na biologia. Existem evidências empíricas que os neurônios podem gerar padrões de disparos in vivo e in vitro. Tais padrões foram observados em neurônios individualmente e em redes neurais auto-organizáveis (grupo neuronal) (LINDSEY et al., 1997), (PRUT et al., 1998), (VILLA et al., 1999), (CHANG et al., 2000), (TETKO; VILLA, 2001), (MAO et al., 2001), (IKEGAYA et al., 2004), (STREHLER; LESTIENNE, 1986), (STEVE- NINCK et al., 1997), (REINAGEL; REID, 2002), (BRYANT H.AND SEGUNDO, 1976), (MAINEN; SEJNOWSKI, 1995), (IZHIKEVICH, 2005). Com isso, este trabalho busca explorar o surgimento desses padrões em uma rede de neurônios pulsantes. Dentre as diversas teorias propostas a cerca da formação de grupos neuronais, a TNGS - theory of neuronal group selecion proposta por Edelman (1987) se destaca e fundamenta-se no princípio de que a menor unidade funcional do cérebro não é um neurônio e sim um grupo neuronal. Um grupo neuronal pode ser definido como um conjunto de neurônios localizados numa certa região, fortemente acoplados entre si e que oscilam e disparam em sincronia. Esses grupos neuronais são formados durante a fase embrionária so responsáveis pelas funções mais primitivas dos seres humanos.

18 1.2 TNGS - Teoria de seleção de grupos neuronais 17 Imediatamente após o nascimento, o cérebro cria e modifica ligações sinápticas entre os grupos neuronais. Assim, Edelman (1987) propôs uma analogia baseada na teoria de seleção natural de Darwin, que descreve o processo físico observado no desenvolvimento neuronal, onde as sinapses que são mais usadas ficam mais fortes, enquanto as que não são usadas são enfraquecidas. O desenvolvimento das ligações sinápticas continua no início da vida de uma criança e pode ser observado através dos primeiros movimentos dos recém-nascidos: quando o movimento tem sucesso, o padrão que o produziu é reforçado enquanto que os movimentos sem sucesso são enfraquecidos (EDELMAN, 1993). Alguns modelos de neurônio pulsante, como o modelo de Izhikevich, são capazes de reproduzir características biológicas como a formação de grupos neuronais. Com isso, a emergência de sincronicidade em uma rede de neurônios pode ser simulada computacionalmente através de uma rede neural artificial, composta por neurônios pulsantes e dotada de um modelo de ligações sinápticas capaz de reproduzir plasticamente comportamentos encontrados no sistema nervoso. 1.2 TNGS - Teoria de seleção de grupos neuronais Edelman (1987), em sua TNGS, defe que a topologia das conexões neurais não são pré-estabelecidas genéticamente, se desenvolvo na fase embrionária através de atividades neurais competitivas. Edelman argumenta, ainda, que a menor unidade cerebral não é um neurônio, uma vez que os neurônios individuais não transmitem informação, e sim os grupos neuronais (grupos de 50 a células neurais). Segundo Edelman (1987), um grupo neuronal é um conjunto de neurônios localizado em uma certa região do córtex e que dispara na mesma frequência. As ligações sinápticas entre os neurônios do grupo são fortalecidas quando os neurônios do grupo pulsam sincronamente e enfraquecidas quando o pulso não ocorre em sincronia. 1.3 Objetivos Este trabalho tem por objetivo geral analisar a emergência de sincronicidade em uma rede de neurônios pulsantes, determinando os parâmetros do modelo de neu-

19 1.4 Metodologia de pesquisa 18 rônio utilizado por meio de algoritmos genéticos, contribuindo dessa forma com os estudos em neurociência computacional mediante a criação de grupos neuronais de forma automática, inspirado na teoria de Edelman. Os objetivos específicos do trabalho são: desenvolver uma função objetivo e uma função de fitness adequada; sintonizar os parâmetros do modelo para implementação de grupos neuronais síncronos com frequências definidas e pré-estabelecidas; realizar simulações com redes homogêneas; realizar um estudo exploratório com redes heterogêneas; analisar a composição da rede neural heterogênea quanto aos tipos de neurônios e a influência desses na obtenção de determinadas faixas de frequências; 1.4 Metodologia de pesquisa O desenvolvimento deste trabalho envolveu conceitos e técnicas que perpassam várias áreas do conhecimento, fazo-se necessário o levantamento bibliográfico para sua fundamentação e o estudo das tecnologias envolvidas para a modelagem e implementação do mesmo. Estas etapas são apresentadas a seguir: 1. revisão da literatura nas áreas de neurociência e sistemas inteligentes, no que diz respeito às redes neurais naturais e artificiais; 2. realização de um estudo matemático computacional do modelo de neurônio proposto por Izhikevich (2003), dos modelos de sinapse e do mecanismo de plasticidade implementado, spike-timing-depent plasticity - STDP; 3. estudo da influência dos parâmetros na emergência de sincronicidade e analise das frequências obtidas previamente; 4. identificação dos parâmetros para implementação de grupos neuronais síncronos com frequências definidas; 5. ajuste de um algoritmo genético;

20 1.5 Organização da dissertação gerar e análisar grupos neuronais compostos por diferentes tipos de neurônios associados, i.e., variar os parâmetros estudados individualmente; 7. simulações com redes homogêneas; 8. estudo exploratório com redes heterogêneas; 9. realização de análises críticas quanto aos resultados obtidos. 1.5 Organização da dissertação O presente trabalho está organizado em cinco capítulos que estão divididos da seguinte forma: o capítulo 2 apresenta uma revisão da literatura sobre neurônios pulsantes com a descrição e avaliação de alguns modelos, além de conter a classificação dos neurônios corticais, que foi utilizada na classificação dos neurônios resultantes em uma das etapas de simulação do capítulo 4. Além disso, os detalhes da rede neural utilizada também estão expostos no capítulo 2, com a descrição do modelo de neurônio adotado, bem como o modelo de sinapse e o mecanismo de plasticidade implementado. No capítulo 3 é apresentada a configuração do algoritmo genético desenvolvido para este trabalho, constando a modelagem da função objetivo utilizada para determinar a ocorrência de sincronicidade na rede neural. O capítulo 4 apresenta as simulações computacionais e os resultados obtidos. Finalmente, no capítulo 5 o trabalho de pesquisa é concluído.

21 20 2 Redes de neurônios pulsantes Desde 1943, quando o primeiro modelo matemático de neurônio foi apresentado por McCulloch e Pitts (MCCULLOCH; PITTS, 1943), vários modelos de neurônios foram criados, visando ater as diversas características biológicas presentes nos neurônios reais e buscando a eficiência computacional para simulações (GERSTNER, 1999). A neurociência computacional busca compreer as funções e mecanismos do sistema nervoso por meio da construção de modelos matemáticos realistas de redes de neurônios e da realização de simulações computacionais em larga escala. Para tanto, se requer que o modelo de neurônio utilizado nestas simulações seja, a um só tempo, neurobiologicamente realista e computacionalmente viável. O modelo de neurônio de Hodgkin-Huxley, embora dos mais completos biologicamente, apresenta um custo computacional muito elevado so, portanto, um impeditivo para simulações de maior porte. Nos últimos anos, os neurônios pulsantes vêm ganhando espaço nas pesquisas (GERSTNER; KISTLER, 2002),(FLORIAN, 2003) e (IZHIKEVICH; GALLY; EDELMAN, 2004) devido às descobertas biológicas sobre a importância do surgimento de grupos neuronais nas redes neurais (IZHIKEVICH, 2004). 2.1 Alguns modelos de neurônios pulsantes Dentre os vários modelos de neurônios pulsantes, o que apresenta a maior facilidade de implementação é o integra-e-dispara (integrate-and-fire) que é linear e unidimensional. Embora seja um modelo bastante difundido, não é capaz de reproduzir as características dos neurônios corticais. Visando dotar o modelo integra-e-dispara de características biológicas, adaptações foram feitas, gerando novos modelos tais como: integrate-and-fire with adaptation, quadratic integrate-and-fire, integrate-and-fire-or-burst e o ressonate-and-fire).

22 2.2 Comparação entre os modelos 21 Com as modificações realizadas, foi possível dotar o modelo de características tais como a bistabilidade de descanso, além de ser possível reproduzir importantes características de ressonador (HOPPENSTEADT; IZHIKEVICH, 1997) (LATHAM et al., 2000) (IZHIKEVICH, 2001) (SMITH et al., 2000). Um dos modelos mais importantes na neurociência é o modelo de Hodgkin-Huxley (HODGKIN; HUXLEY, 1952), obtido através de experimentos realizados no axônio de uma lula e que melhor reproduz as características de um neurônio real (IZHIKEVICH, 2004). Esse modelo é descrito por quatro equações diferenciais e dez variáveis, que modelam a dinâmica das correntes iônicas, além de tratar o potencial de membrana. Devido a sua complexidade, é um modelo muito caro computacionalmente. O modelo de Izhikevich, que será descrito com detalhes na seção 2.4, foi obtido a partir de simplificações das equações do modelo de Hodgkin-Huxley, conseguindo reproduzir várias características dos neurônios reais. Outros modelos de neurônios pulsantes podem ser observados em Gerstner e Kistler (2002), Izhikevich (2007), Bohte (2003), Berrêdo (2005). 2.2 Comparação entre os modelos Nos estudos com neurônios pulsantes é importante escolher o modelo de neurônio mais adequado para a aplicação que será desenvolvida. Dentre os vários modelos de neurônios pulsantes existentes é possível encontrar uma gama de modelos que apresentam alta plausibilidade biológica, mas com custo computacional elevado, como o modelo proposto por Hodgkin-Huxley em 1952(HODGKIN; HUXLEY, 1952), bem como modelos que requerem poucas operações computacionais, mas não apresentam a plausibilidade biológica desejada, como o integra-e-dispara (integrate-andfire)(izhikevich; GALLY; EDELMAN, 2004). O modelo proposto por Izhikevich (IZHIKEVICH, 2003) dispõe de várias características biológicas e um custo computacional baixo o suficiente para implementação de redes neurais artificiais (IZHIKEVICH; GALLY; EDELMAN, 2004). A Figura 1 mostra a comparação entre os diversos modelos de neurônios pulsantes so possível observar o baixo custo computacional do modelo de Izhikevich além de sua boa plausibilidade biológica.

23 2.3 Classificação dos neurônios 22 Figura 1 Comparação entre vários modelos de neurônios pulsantes. FONTE: Izhikevich (2004). 2.3 Classificação dos neurônios Hodgkin (1948) foi o primeiro a classificar os neurônios através das respostas obtidas ao estimular os axônios de uma lula com pulsos de várias amplitudes, classificandoos como a seguir: Classe 1 - Depo da intensidade da corrente, os potenciais de ação podem apresentar frequências baixas. São também chamados de integradores; Classe 2 - A frequência dos potenciais de ação está dentro de uma faixa e praticamente não varia com a modificação da intensidade da corrente de entrada. São também conhecidos como ressonadores. Classe 3 - Um único potencial de ação é gerado em resposta a um pulso de corrente. Disparos repetitivos (tônicos) podem ser gerados somente para correntes de alta intensidade ou para nenhuma corrente Principais classes dos neurônios Os neurônios corticais dos mamíferos podem ser classificados de acordo com o padrão de disparos. Os neurônios excitatórios são divididos em Regular Spiking (RS), Intrinsically Bursting (IB), Chattering(CT), enquanto os inibitórios Fast Spiking (FS), Low-threshold spiking (LTS) e Late spiking (LS) (CONNORS; GUTNICK, 1990), (GRAY;

24 2.3 Classificação dos neurônios 23 MCCORMICK, 1996), (GIBSON; BELERLEIN; CONNORS, 1999)). O comportamento de disparos desses neurônios podem ser observados nas figuras 2 e 3. Embora a maioria dos biólogos concorde com essa classificação, ela também é considerada simplificada, pois a distinção de classes não é precisa, podo haver subclasses. Além disso, os neurônios podem mudar o padrão de comportamento de acordo com o estado do cérebro (NOWAK et al., 2003), (STERIADE, 2004), (TOLEDO-RODRIGUEZ et al., 2004), (MARKRAM et al., 2004). O Regular Spiking (RS) é a classe de neurônios excitatórios mais comum no neocórtex. Ao ser exposto a um estímulo (corrente elétrica) prolongado dispara pulsos tônicos com intervalos curtos e que aumentam posteriormente. Esse comportamento é também chamado de frequência de adaptação do pulso, i.e., a frequência decai como resposta à corrente de entrada. Quando a corrente de entrada tem sua intensidade aumentada, a frequência dos pulsos também aumenta. A maioria dos neurônios RS são da Classe 1 de excitabilidade. Neurônios da classe Intrinsically Bursting (IB) disparam inicialmente um conjunto de pulsos (burst) ao receberem uma intensa corrente de entrada, passando, em seguida a apresentar o comportamento tonic spiking. Em alguns casos, as células IB apresentam o comportamento descrito apenas se a corrente de entrada for suficientemente intensa, podo apresentar comportamento RS caso a corrente não seja intensa o suficiente. Por outro lado, muitos neurônios da classe IB apresentam bursts mesmo quando a corrente é baixa. A classe Chattering(CT) consiste de neurônios que geram repetitivos bursts de alta frequência como resposta a corrente de entrada. A intensidade da corrente determina o período entre os bursts e o número de pulsos em cada burst. O número de pulsos varia de 2 a 5, enquanto o período entre os bursts pode ser de 15ms a 100ms. Os neurônios da classe Fast Spiking (FS) disparam pulsos tônicos de alta frequência, com período relativamente constante, exibindo comportamento da classe 2 (TATENO; HARSCH; ROBINSON, 2004). Quando a intensidade da corrente de entrada é inferior a um certo valor crítico, os neurônios FS disparam pulsos irregulares variando entre períodos de repouso e períodos de disparos. Assim como o FS, o Low-threshold spiking (LTS) dispara sequências periódicas de pulsos com alta frequência, mas com adaptação (redução) da frequência e pulsos de recuo (pós inibitórios). Embora a classe em que eles estão não tenha sido determinada, eles parecem capazes de pulsar em sequências de baixa frequência.

25 2.3 Classificação dos neurônios 24 Finalmente, o Late spiking (LS) apresenta um salto de tensão como resposta a corrente de entrada próxima da reobase 1 e então apresenta pulsos tônicos. Ao serem estimulados por uma corrente de alta intensidade, podem apresentar um pulso imediato seguido de um salto e então pulsos retardados com latências de até 1 segundo. Figura 2 Comportamento de disparos das seis classes mais importantes presentes no neocórtex. FONTE: Izhikevich (2004). Além das classes de padrões de disparos observadas no neocórtex, vale a pena destacar os padrões presentes em neurônios do tálamo, que é a maior porta de co- 1 Mínima intensidade de corrente, de tempo teoricamente infinito, necessária para produzir um estímulo elétrico.

26 2.3 Classificação dos neurônios 25 municação com o neocórtex, pois nenhum estímulo pode alcançar o neocórtex sem passar pelo tálamo. Os neurônios tálamo-corticais (TC) projetam as entradas sensoriais para o córtex e apresentam dois modelos dominantes de disparos: tonic e burst. O comportamento tonic aparece quando, após o repouso, o neurônio recebe um pulso de entrada. Já o comportamento de burst acontece quando é usada uma corrente negativa para hiperpolarizar o potencial de membrana. O último tipo de comportamento que será tratado nesta seção é o ressonador (Resonator - RZ), que ressoa a entradas rítmicas com a frequência adequada, devido às oscilações abaixo do limiar (subthreshold) mantidas ou amortecidas. Figura 3 Classes de padrões de disparos dos neurônios mais importantes incluindo os neurônios tálamo-corticais e ressonadores. FONTE: Izhikevich (2004).

27 2.4 Modelo de Izhikevich Modelo de Izhikevich O modelo de neurônio pulsante de Izhikevich apresenta excelente desempenho computacional, além de preservar muitas das características desejáveis associadas e por esse motivo foi o modelo escolhido para este trabalho. As simulações computacionais de modelos cerebrais aliadas a estudos experimentais do sistema nervoso de animais e seres humanos é a forma usada para a compreensão do funcionamento do cérebro. Ao serem consideradas simulações de larga escala, o modelo de neurônio utilizado precisa ser computacionalmente acessível, conservando a maior quantidade de características biológicas possível. Com isso em mente, Izhikevich (2003), através de metodologias de bifurcação para simplificar o modelo de Hodgkin-Huxley, obteve um modelo bidimensional, que apresenta características biofisiológicas acuradas e é descrito pelo sistema equações diferenciais a seguir: e pela condição auxiliar dv dt = αv2 + βv + γ u + I, (2.1) du = a(bv u), dt (2.2) se v 30mV, então v c, u u + d, (2.3) onde I é a variável de corrente de estimulação do neurônio, medida em pa e é o meio pelo qual o neurônio recebe estímulos externos, de outros neurônios ou estruturas. Além disso, a, b, c, d são parâmetros que definem o tipo de comportamento que será reproduzido pelo neurônio, enquanto v e u são variáveis que representam: v - representa o potencial de membrana do neurônio; u - representa uma variável de recuperação do potencial de membrana; a - descreve a escala de tempo da variável de recuperação u (determina a taxa de decaimento da variável u em função de t);

28 2.4 Modelo de Izhikevich 27 b - representa a sensibilidade da variável de recuperação u antes de ocorrer o reset do potencial de membrana (expressa a sensibilidade da variável de recuperação u em relação ao potencial de membrana v); c - valor de reset do potencial de membrana v após o disparo (valor atribuído a v); d - valor de reset da variável de recuperação após o pulso (valor adicionado a u). As figuras 4 e 5 mostram a influência dos paramêtros a, b, c e d no modelo de Izhikevich, e as faixas de valores possíveis para a reprodução de cada um dos tipos de neurônios apresentados nesta seção. Figura 4 Influência dos parâmetros a, b, c e d no modelo de neurônio de Izhikevich. FONTE: Izhikevich, Gally e Edelman (2004). Os parâmetros fundamentais α, β e γ, todos positivos, são pré-definidos no modelo de Izhikevich com os valores: α=0.04, β=5, γ=140 e foram obtidos para ajustar o pulso com a dinâmica de um neurônio cortical, de forma que o potencial de membrana v tenha escala mv e o tempo t tenha escala ms, além disso os valores escolhidos são os que melhor se aplicam à simulação de neurônios pulsantes em larga escala Propriedades neuro-computacionais observadas no modelo de Izhikevich Os neurônios biológicos apresentam características neuro-computacionais que são importantes para a codificação temporal e processamento de informações através do sincronismo de pulsos. As vinte características mais proeminentes foram analisadas por Izhikevich (2004) na avaliação de diversos modelos de neurônios pulsantes, onde foi possível verificar que o modelo de Izhikevich é capaz de reproduzi-las mediante a

29 2.5 Modelo de sinapses 28 Figura 5 Faixa de valores dos parâmetros do modelo de neurônio de Izhikevich com relação ao tipo de neurônio modelado. FONTE: Izhikevich (2004). sintonia adequada dos parâmetros do modelo a, b, c e d. Tais características podem ser observadas na Figura Modelo de sinapses Para o estudo da formação de grupos neuronais, o modelo de sinapses deve ser escolhido de maneira a reproduzir características encontradas no sistema nervoso. O modelo adotado foi apresentado por Muresan e Savin (2007), onde a sinapse é entida como um caminho de condutância variável com o tempo, g(t), que, mais especificamente, decai exponencialmente com uma constante de tempo associada, τ (CHAVES, 2007). dg dt = g τ (2.4) Quando um neurônio dispara, g recebe como valor 1 e à medida que o tempo passa, o valor da condutância diminui (a velocidade do decaimento depe de τ) até chegar a 0. Quando a condutância é zero, nenhuma corrente é transmitida aos neurônios pós-sinápticos. Os neurônios pós-sinápticos passarão a receber corrente estimulatória novamente se houver um disparo de um de seus neurônios pré-sinápticos, reiniciando o ciclo.

30 2.5 Modelo de sinapses 29 Figura 6 Comportamentos neuro-computacionais dos neurônios pulsantes. FONTE: Izhikevich, Gally e Edelman (2004).

31 2.6 Spike-timing-depent plasticity (STDP) 30 A corrente recebida por qualquer neurônio pode ser calculada por (SONG; MILLER; ABBOTT, 2000): I = i W i.g i (t)(e i V pos ), (2.5) onde, i é a sinapse, W i o peso, g i (t) a condutância, E i é o potencial reverso da sinapse e V pos é o potencial de membrana do neurônio pós-sináptico. Em seu trabalho, Oliveira (2007), usou matrizes M N, em que M é número de neurônios da rede e N o número de sinapses por neurônio, utilizados na representação das ligações sinápticas, pesos das sinapses e condutância. Desta forma, a corrente recebida pelos neurônios, que está descrita na equação 2.5, pode ser calculada pela multiplicação elemento a elemento da matriz de pesos pela matriz de condutância. 2.6 Spike-timing-depent plasticity (STDP) O Spike-timing-depent plasticity é uma regra Hebbiana capaz de selecionar os atrasos de condução fazo com que os neurônios se organizem espontaneamente em grupos neuronais (IZHIKEVICH, 2005). Foi estudada empiricamente por Bi e Poo (1998) e é usada em simulações em larga escala na neurociência (FLORIAN, 2006). A regra altera o peso de acordo com o intervalo entre pulsos. Se um neurônio pós-sináptico disparou após receber um pulso de um neurônio pré-sináptico, o peso da conexão sináptica entre estes neurônios é incrementada. O algoritmo adotado foi implementado por Song, Miller e Abbott (2000) e pode ser resumido da seguinte forma: as variáveis LTP (long-term potencialization) e LTD (long-term depression) são associadas a cada sinapse. Sempre que um pulso chega a uma sinapse, a variável LTP é incrementada com o valor A +. Cada vez que um neurônio pós-sináptico disparar, a variável LTD é decrementada de A. Desta forma, as variáveis LTP e LTD são usadas para reforçar e depreciar as conexões sinápticas, respectivamente. A Figura 7 mostra o comportamento da função adotada. F ( t) = A + exp( t/τ + ) se t < 0 A exp( t/τ ) se t 0 (2.6) Os parâmetros τ + e τ determinam o alcance do intervalo entre os neurônios pré e pós-sináptico e A + e A determinam o valor máximo de modificação do peso sináptico.

32 2.7 Estudos anteriores 31 Figura 7 Função de modificação do peso sináptico. 2.7 Estudos anteriores Uma rede neural com cem neurônios de Izhikevich e usando o modelo de sinapses apresentados nas seções anteriores foi implementada por Oliveira (2007) para estudar a influência da variação dos parâmetros do modelo na emergência de sincronicidade da rede. Os comportamentos da rede quando não existe sincronia dos disparos e quando os neurônios se auto-organizam em um grupo neuronal podem ser vistos nas figuras 8 e 10, respectivamente. 2.8 Emergência de sincronicidade A emergência de sincronicidade é uma dinâmica da desordem para a ordem. Inicialmente a rede neural apresenta um comportamento desordenado de disparos, como pode ser observado na Figura 8, isto é, não existe sincronia entre os pulsos dos neurônios da rede. À medida que os disparos ocorrem sincronamente, a rede vai se ordenando, como pode ser observado na Figura 9. Finalmente, a rede é capaz de se ajustar de maneira que passe a apresentar padrões de disparos, que são classificações de um subconjunto de microestados (neurônios individualmente) compatíveis com um macroestado (conjunto de neurônios), como pode ser observado na Figura 10.

33 2.8 Emergência de sincronicidade 32 Figura 8 Rede neural disparando assincronamente. Figura 9 Rede neural apresentando disparos quase ordenados na frequência de 10 Hz.

34 2.8 Emergência de sincronicidade 33 Figura 10 Rede neuronal disparando sincronamente na frequência de 4 Hz. Para a análise da emergência de sincronicidade, Oliveira (2007) estudou variações dos parâmetros que serão descritos na subseção a seguir Parâmetros que afetam a emergência da sincronicidade O modelo de Izhikevich, descrito pelas equações 2.1, 2.2 e 2.3, depe do ajuste de vários parâmetros para a emergência de sincronicidade. O parâmetro a, que está relacionado a u e v, representa a recuperação do potencial de membrana do neurônio após o disparo e pode, portanto, modificar a frequência do grupo. Os neurônios disparam quando o valor de u é suficientemente baixo, de modo a permitir que o valor de v aumente. Na Figura 11 pode-se observar os resultados obtidos por Oliveira (2007) ao variar os valores de a. Já o parâmetro b define o ponto de interseção da nuliclinal de v (curva onde dv/dt = 0) com a nuliclinal de u (curva onde du/dt = 0), modificando, portanto, o valor da corrente necessária para o disparo do neurônio (IZHIKEVICH, 2007). Com a alteração do valor da corrente de estimulação I, a nuliclinal de v sofre um deslocamento, enquanto a alteração do valor de b afeta a nuliclinal de u, como se pode ver na Figura 12.

35 2.8 Emergência de sincronicidade 34 Figura 11 Grupos com diferentes frequências em função do parâmetro a. Em (a), a = 0.02, em (b), a = 0.04 e em (c), a = FONTE: OLIVEIRA, p. 42. Figura 12 Plano de fase para b = 0.2 (esquerda) e b = 0.25 (direita). FONTE: OLIVEIRA, p. 41.

36 2.8 Emergência de sincronicidade 35 A Figura 13 mostra os resultados obtidos por Oliveira (2007) ao variar os valores de b. Podemos observar que na Figura 13-(a), a frequência é menor que na Figura 13-(b), pois a corrente necessária para o disparo do neurônio é menor no segundo caso. Figura 13 Grupos com frequências diferentes em função da alteração do parâmetro b. Em (a), b = 0.2 e em (b), b = FONTE: OLIVEIRA, p. 41. Além dos parâmetros que estão descritos nas equações 2.1 e 2.2, a sincronicidade da rede pode ser afetada pela variação de outros parâmetros que não estão descritos no modelo de neurônio de Izhikevich, como o número de sinapses realizadas por neurônio e a condutância das sinapses (τ). É importante ressaltar que Oliveira (2007) estabeleceu que todos os neurônios da rede teriam o mesmo número de sinapses. A influência do número de sinapses na sincronicidade da rede pode ser vista na Figura 14 enquanto na Figura 15 podemos ver a influência de τ na sincronicidade que foi observada por Oliveira (2007). Cabe observar que quanto maior for τ, mais persistentes serão os efeitos de um disparo do neurônio pré-sináptico sobre os N neurônios pós-sinápticos aos quais ele se conecta.

37 2.8 Emergência de sincronicidade 36 Figura 14 Influência da constante de tempo na emergência de sincronicidade. Em (a), τ = 1ms, em (b), τ = 5ms, e (c), τ = 30ms. FONTE: OLIVEIRA, p. 40. Mediante o estudo individual de cada um desses parâmetros, Oliveira (2007) foi capaz de sintonizar uma rede com 100 neurônios de modo a gerar frequências na faixa de 2 Hz até 20 Hz. A rede neural estudada era composta por cem neurônios pulsantes iguais, ou seja, é possível ainda avaliar a alteração dos parâmetros em cada neurônio individualmente.

38 2.8 Emergência de sincronicidade 37 Figura 15 Influência do número de sinapses, por neurônio, em uma rede com 100 neurônios, na emergência de sincronicidade. Em (a), 3 sinapses por neurônio, em (b), 10 sinapses por neurônio, em (c), 20 sinapses por neurônio e em (d), 30 sinapses por neurônio. FONTE: OLIVEIRA, p. 38.

39 38 3 Sintonia dos parâmetros do modelo neural via algoritmos genéticos 3.1 Parâmetros analisados Na seção 2.7, foram expostos os parâmetros estudados por Oliveira (2007) e os resultados obtidos para uma rede de neurônios idênticos, onde foi possível encontrar frequências entre 2 Hz e 20 Hz através da variação individual dos parâmetros a e d do modelo de Izhikevich, além do número de sinapses e da taxa de decaimento da condutância (τ). Neste trabalho, foram variados, simultaneamente, o número de sinpapses, a taxa de decaimento da condutância (τ) e os parâmetros do modelo de Izhikevich a, b, c e d, através de um algoritmo genético. Em seu trabalho, Oliveira (2007) observou que não havia ocorrência de sincronicidade quando τ assumia valores próximos de 30, assim como valores próximos de 1. Além disso, Oliveira (2007) não obteve sincronicidade quando o número de sinapses era tão baixo como 3 ou tão alto quanto 30. Com isso, neste trabalho, o menor número de sinapses por neurônio foi 5, enquanto o máximo de sinapses por neurônio foi 30, enquanto o valor mínimo de τ foi 1 e o máximo 30. Além do número de sinapses e da taxa de decaimento da condutância das sinapses, os parâmetros a, b, c e d do modelo de Izhikevich foram analisados. Tais parâmetros são números reais e tiveram os seus limites de variação definidos por Izhikevich (2003), conforme os limites apresentados anteriormente na Figura 5.

40 3.2 Algoritmo genético Algoritmo genético O algoritmo genético é uma classe de algoritmo evolucionário que usa a mesma terminologia aplicada na teoria da evolução natural e na genética. Os algoritmos genéticos são categorizados como uma heurística de busca global que apresenta um adequado balanço entre o aproveitamento das melhores soluções (explotation) e a exploração do espaço de busca (exploration) (GOMES, 2007). Nos AGs, os indivíduos, são representados por alguma forma codificada, conhecida como cromossomo ou genoma, que possui a codificação (genótipo) de uma solução possível para o problema (fenótipo). No algoritmo genético clássico, os cromossomos são representados por cadeias binárias de tamanho fixo. Em alguns problemas, a representação real é mais adequada, pois acredita-se que a eficiência do AG é melhorada, uma vez que não é preciso converter as cadeias binárias, assim como a precisão das soluções. Além disso, é possível implementar diferentes operadores genéticos (MI- CHAELEWICZ, 1996). Neste trabalho, como foram realizadas diferentes simulações, os cromossomos são diferentes em cada uma delas. Nas duas primeiras simulações os cromossomos são vetores reais, com 4 e 6 variáveis, respectivamente, como pode ser observado nas figuras 16 e 17. Já para a simulação da rede com neurônios distintos, os cromossomos foram representados por uma matriz 100 4, conforme Figura 18. Sinapses τ a d Figura 16 Estrutura do cromossomo para a simulação de ajuste da função objetivo. Sinapses é o número de ligações sinápticas, τ é a taxa de decaimento da condutância e a e d são parâmetros do modelo de Izhikevich. Sinapses τ a b c d Figura 17 Estrutura do cromossomo para a simulação da rede de neurônios homogênea. Sinapses é o número de ligações sinápticas, τ é a taxa de decaimento da condutância e a, b, c e d são parâmetros do modelo de Izhikevich. A população inicial gerada será avaliada e selecionada para os próximos passos do algoritmo genético. A função objetivo fornece uma medida bruta da qualidade e aptidão de desempenho dos indivíduos na solução de problemas e é usada em um estágio intermediário na determinação do desempenho relativo dos indivíduos em um

41 3.2 Algoritmo genético 40 a 1 b 1 c 1 d 1 a 2 b 2 c 2 d a 100 b 100 c 100 d 100 Figura 18 Estrutura do cromossomo para a simulação da rede de neurônios heterogênea, com a i, b i, c i e d i representando os parâmetros do modelo de Izhikevich do i-ésimo neurônio da rede. AG. Uma outra função importante é a chamada função de aptidão e é usada normalmente para transformar o valor da função-objetivo em uma medida da aptidão relativa. Neste trabalho, a função objetivo é também a função de fitness, e será discutida detalhadamente na seção 3.3. O esquema de seleção determina como os indivíduos são escolhidos para o processo de recombinação, baseado em seus valores de aptidão. Com a seleção é possível manter a diversidade da população, impedindo a convergência prematura para soluções pobres. Neste trabalho, o esquema de seleção adotado foi o Roulette wheel, no qual a probabilidade da seleção é proporcional à aptidão e pode ser calculada por (BAKER, 1987): F (x i ) = f(x i ) Nind i=1 f(x i ), (3.1) onde f(x i ) é a função objetivo do indivíduo x i e F (x i ) é o valor da função de fitness ou a probabilidade relativa do indivíduo x i ser selecionado. Uma representação do método roulette wheel pode ser observada na Figura 19. Os indivíduos selecionados são basicamente recombinados para produzir novos cromossomos através de um operador de recombinação ou crossover. O operador de crossover cria novos indivíduos através da combinação de dois ou mais indivíduos. A idéia básica é que o crossover execute a troca de informação entre soluções candidatas diferentes. Neste trabalho, a recombinação intermediária, que é um método de geração de novos fenótipos em torno e entre os valores dos fenótipos paternos, foi adotada como operador de crossover. Na recombinação intermediária, a prole é produzida de acordo com a regra:

42 3.2 Algoritmo genético 41 Figura 19 Seleção roleta russa, onde cada indivíduo da população é representado na roleta proporcionalmente ao valor da função de fitness. Os indivíduos com melhores valores da função de fitness recebem uma porção maior da roleta. O 1 = P 1 + α(p 2 P 1 ), (3.2) onde α é um fator de escalonamento escolhido uniformemente e de forma aleatória sobre algum intervalo, tipicamente [-0.25,1.25] e P 1 e P 2 são os cromossomos dos pais. Cada variável dos descentes é o resultado da combinação das variáveis dos pais, de acordo com a expressão acima, com um novo α escolhido para cada par de genes do pai. Na evolução natural, a mutação é um processo aleatório em que um alelo de um gene é substituído por outro para produzir uma nova estrutura genética. Nesse processo, o operador de mutação modifica aleatoriamente um ou mais genes de um cromossomo. O operador de mutação age como um parâmetro explanatório e visa à manutenção da diversidade genética. Esse operador, além de ajudar na prevenção da convergência prematura, capacita a exploração de partes do espaço que o crossover poderia perder. O operador de mutação adotado foi o operador uniforme, que seleciona um dos componentes do cromossomo, aleatóriamente, e deste gera um individuo em que o cromossomo representa um valor distribuído aleatoriamente dentro da escala de seus

43 3.3 Função objetivo 42 valores possíveis. A probabilidade de ocorrência de mutação é chamada de taxa de mutação e para este estudo foi adotado o valor de 0,008, obtido experimentalmente. A taxa de mutação não pode ter valores elevados para não prejudicar a convergência do algoritmo. Após a produção da nova população, um processo de reinserção da nova população na antiga torna-se necessário. O critério de substituição adotado neste trabalho foi a substituição geracional com estratégia elitista, i.e., em cada geração, uma certa porcentagem dos indivíduos são substituídos por indivíduos da nova geração. Para as simulações realizadas, a taxa de substituição da geração foi de 80%, obtida após inúmeros testes. Os passos do AG: geração de população, avaliação, seleção, crossover, mutação e reinserção são repetidos até que um dos critérios de parada, como número máximo de gerações, tempo gasto ou obtenção da solução (quando conhecida), seja atingido. Neste trabalho, foram adotados como critérios de parada o número máximo de 1000 gerações ou a estagnação após 250 gerações, i.e., quando o mesmo resultado for obtido por 250 gerações consecutivas o AG é interrompido. 3.3 Função objetivo Oliveira (2007) estudou a influência dos parâmetros a, d do modelo de neurônio pulsante de Izhikevich, do número de sinapses e da constante de decaimento na emergência de sincronicidade. Este trabalho, por sua vez, tem como proposta o estudo da configuração global da rede, isto é, todos os parâmetros e variáveis analisadas por Oliveira (2007) serão sintonizados de forma automática para obtenção da sincronicidade da rede com valores de frequências pré-estabelecidas. O principal obstáculo desta proposta foi a determinação de uma função objetivo que fosse capaz de permitir a ocorrência de sincronicidade. A primeira tentativa foi a obtenção de uma função periódica que pudesse ser associada à recuperação do potencial de membrana (Figura 20 - (b)), variável u(t) do modelo de Izhikevich, entretanto, essa proposta apresentou como principal problema a complexidade computacional, uma vez que u(t) deveria ser tratada para cada neurônio a fim de obter resultados precisos.

44 3.3 Função objetivo 43 Figura 20 Rede neural disparando em sincronia. Em (a), os disparos de cada um dos 100 neurônio em função do tempo; em (b) a recuperação do potencial de membrana do neurônio 70 e em (c) o potencial de membrana do neurônio 70.

45 3.3 Função objetivo 44 A estratégia mais eficiente encontrada para a avaliação da sincronia foi o uso de uma função periódica associada à quantidade de neurônios que disparam a cada instante de tempo t. A Figura 21 apresenta em (a) os disparos dos 100 neurônios da rede em função do tempo, e em (b) a quantidade de neurônios disparados a cada instante t. A partir desta Figura foi possível desenvolver uma função onda quadrada que pode ser observada na Figura 22. Figura 21 Quantidade de neurônios disparados em função do tempo. Na Figura 22, o instante t i pulsos, de maneira que a diferença: está associado ao ponto médio do i-ésimo trem de t = t i+1 t i, (3.3) retorna o período entre os disparos. Os valores desejados para as variáveis t i e t i+1 para a ocorrência de sincronicididade são tais que: T t 0, (3.4) onde T é o período associado à frequência desejada.

46 3.3 Função objetivo 45 Figura 22 Parâmetros da função objetivo A variável H i, altura do trem de pulsos, tem como valor a quantidade de neurônios que dispara em cada coluna. Como a cada instante da simulação este valor é diferente, o valor de referência passa a ser a coordenada t i. É desejável que H i tenha valores altos, pois isso significa que muitos neurônios estão disparando no mesmo instante ou em sincronia. Já a variável L i é a largura do trem de pulsos, ou seja, é o intervalo t durante o qual os neurônios disparam. Quanto menor a largura de disparos, melhor a sintonia do grupo neuronal, i.e., mais sincronicidade há entre os neurônios. Além disso, é importante que os intervalos de diferentes colunas tenham tamanhos próximos de maneira que: L i+i Li = C, (3.5) onde C é uma constante que deve ser minimizada. Finalmente, as variáveis d i e x i são o tempo necessário para que o grupo neuronal comece a pulsar (delay), após receber uma estimulação no tempo t = 0, e o intervalo entre o término dos pulsos e o fim do período, respectivamente. Para que os neurônios estejam em sintonia é preciso que: d i+i d i = D, (3.6) onde D é uma constante a ser determinada, e

47 3.3 Função objetivo 46 T x i d i L i 0. (3.7) Para obter os melhores valores que geram a sincronicidade será preciso: minimizar o erro (D e C); minimizar d i = d i+1 di e/ou x i = x i+1 x i ; minimizar o L i = L i+1 L i ; maximizar a amplitude do pulso H i. Todas as condições mostradas podem ser atidas se a função objetivo for capaz de avaliar o período, a altura e a largura obtidos. Desta forma, a função objetivo desenvolvida e adotada foi: 1000 f o = T i max [α i max i=1 (T t i+1 + t i ) +β i max i=1 ( L i T 1 imax 10 ) + γ i=1 1 H i ] (3.8) onde, T é o período desejado em milesegundos, i max é o valor máximo atingido por i na rotina de associação dos disparos por tempo com a função onda quadrada, ou seja, o número de colunas de disparos. O trecho da função 1000 T i max (3.9) é uma penalidade para casos em que o período obtido é diferente do período desejado. Como o período desejado é o principal fator de avaliação da função objetivo, i max α i=1 (T t i+1 + t i ) (3.10) é uma penalização extra para o caso em que o período obtido em cada iteração seja diferente daquele desejado, so α o peso. Além do período, larguras com valores superiores a 10% do período desejado também foram penalizadas por meio da expressão:

48 3.3 Função objetivo 47 β i max i=1 ( L i T 1 ), (3.11) 10 com β so o fator de penalização. A penalidade γ aplicada à altura, que por ser a única variável que deve ser maximizada, teve a penalidade associada ao seu inverso. Observando a equação 3.8 é possível perceber que o algoritmo genético irá tratar um problema de minimização, já que quanto menor for a largura e a diferença entre os períodos e quanto maior for a altura dos pulsos, menor será o valor assumido pela função objetivo. Os resultados apresentados nas tabelas 2 e 3 evidenciam que a função objetivo é efetivamente minimizada quando a frequência pré-estabelecida é gerada Ajuste da função objetivo Para definição dos valores de α, β e γ foram realizados inúmeros testes, tanto para frequências baixas quanto altas, de maneira que a função objetivo apresentasse valores menores à medida que a frequência obtida fosse se aproximando da frequência desejada. Dessa forma, os valores mais adequados selecionados foram α = 15, β = 30 e γ = 100. Os resultados obtidos em uma sequência de execuções do algoritmo genético sob condições iniciais idênticas para as frequências de 4 Hz e 22 Hz estão nas tabelas 2 e 3, onde T pre representa o período associado a frequência pré-determinada, T o período médio obtido e Err(T ) o erro entre T pre e T. Os cromossomos que têm a estrutura conforme apresentado na Figura 16 tiveram como limites de suas variáveis os valores apresentados na Tabela 1. Tabela 1 Intervalo de valores dos parâmetros para a simulação de ajuste da função objetivo. a d Sinapses τ Mínimo Máximo Os parâmetros do modelo de Izhikevich b e c foram mantidos constantes e com os valores 0.25 e -65, respectivamente. Além dos parâmetros avaliados pelo algoritmo genético, os seguintes parâmetros foram mantidos constantes durante as simulações:

49 3.3 Função objetivo 48 população: 100 indivíduos; número máximo de gerações: 1000; taxa de crossover: 0,65; taxa de mutação: 0,008; GGAP: 0.8; A + = 1; A = 1; τ + = 1; τ + = 1; W jk = 6 j e k; g o = 1; I = 20 pa. Tabela 2 Valores da função objetivo para a frequência de 4 Hz em 11 execuções do algoritmo genético sob idênticas condições iniciais. Execução Função Objetivo L(ms) L/T pre (%) H(%) T (ms) T pre (ms) Err(T ) Na Figura 23 pode ser observado o comportamento esperado da função onda quadrada obtida em caso de ocorrência de sincronicidade. Já nas figuras 24 e 25 é possível observar o comportamento da função objetivo para situações na rede que não apresentam sincronicidade, com poucos e muitos disparos, respectivamente.

50 3.3 Função objetivo 49 Tabela 3 Valores da função objetivo para a frequência de 22 Hz em 11 execuções do algoritmo genético sob idênticas condições iniciais. Execução Função Objetivo L(ms) L/T pre (%) H(%) T (ms) T pre (ms) Err(T ) Figura 23 Comportamento da função objetivo com ocorrência de sincronicidade.

51 3.3 Função objetivo 50 Figura 24 Comportamento da função objetivo sem ocorrência de sincronicidade com poucos neurônios disparando. Figura 25 Comportamento da função objetivo sem ocorrência de sincronicidade com muitos neurônios disparando.

52 51 4 Discussão dos resultados Neste capítulo serão descritas as simulações realizadas para a sintonização dos parâmetros do modelo de Izhikevich, número de sinapses e taxa de tempo do decaimento da condutância das sinapses (τ) para que a rede neural apresentasse sincronicidade. As simulações foram separadas por etapa e foram realizadas no software MATLAB versão R2009a. Na primeira etapa do trabalho, a preocupação principal foi encontrar os valores mais adequados para os pesos α, β e γ apresentados na equação 3.3. Para isso, foram considerados os resultados obtidos por Oliveira (2007) e foram realizadas várias simulações até que a função objetivo apresentasse o comportamento desejado. Com a funçao objetivo devidamente parametrizada, teve início a segunda etapa em que novas simulações foram realizadas visando encontrar uma gama maior de frequências através da variação dos parâmetros estudados. A Tabela 4 apresenta os parâmetros comuns à todas as baterias de simulação. Tabela 4 Valores adotados em todas as simulações. Algoritmo genético População 100 indivíduos Gerações 1000 Crossover 0,65 Mutação 0,008 GGAP 0,8 Parâmetros da rede A + 1 A 1 τ + 1 τ 1 W jk 6 g o 1 Corrente (I) 20pA

53 4.1 Grupo neuronal homogêneo 52 Na seção 4.1, é discutida a simulação de uma rede composta por 100 neurônios idênticos, enquanto na seção 4.2, os neurônios passaram a ser tratados individualmente, i.e., cada neurônio teve seus parâmetros a, b, c e d sintonizados pelo algoritmo genético. Após cada uma das simulações foi realizado um estudo caracterizando os tipos de neurônio encontrados em cada rede e suas respectivas densidades. Os códigos MATLAB usados nas simulações podem ser encontrados no Anexo A deste trabalho. 4.1 Grupo neuronal homogêneo Após a definição dos parâmetros da função objetivo (Seção 3.3), foram realizadas simulações para determinar a maior frequência possível de ser sintonizada através do algoritmo genético. Para isso, foram realizadas simulações partindo dos resultados obtidos por Oliveira (2007), que analisou a influência dos seguintes parâmetros da rede neural no surgimento de sincronicidade: número de sinapses (Sina); taxa de tempo do decaimento da condutância das sinapses (τ); transições de fase do neurônio (parâmetro b do modelo de Izhikevich); recuperação do potencial de membrana (parâmetro a do modelo de Izhikevich). Com o objetivo de ampliar a gama de frequências obtidas por Oliveira (2007) (que foi capaz de encontrar frequências entre 2 Hz e 20 Hz), uma análise criteriosa da influência dos parâmetros a, b, c e d do modelo de Izhikevich na reprodução dos comportamentos neuronais mencionados na subseção foi realizada, revelando que ao incluir o parâmetro d nas simulações, é possível reproduzir um número maior de tipos de comportamentos. Portanto, nessa primeira etapa de simulação foram estudados os parâmetros seguintes: número de sinapses (Sina); taxa de tempo do decaimento da condutância das sinapses (τ);

54 4.1 Grupo neuronal homogêneo 53 valor de reset do potencial de membrana (parâmetro d do modelo de Izhikevich); recuperação do potencial de membrana (parâmetro a do modelo de Izhikevich). A faixa de valores permitidos para cada um desses parâmetro foi obtido por Izhikevich (2003), como pode ser observado na Figura 5, e foram mantidos os mesmos valores utilizados durante a sintonia dos parâmetros da função objetivo. A Tabela 5 apresenta os valores. Tabela 5 Intervalo de valores dos parâmetros na simulação para determinação da maior frequência possível. a d Sinapses τ Mínimo Máximo Além disso, os demais parâmetros da rede podem ser observados na Tabela 4 e os parâmetros do modelo de Izhikevich b e c foram mantidos constantes com os valores 0.02 e -65, respectivamente No algoritmo genético, os cromossomos foram representados por um vetor real de 4 posições, com os seguintes parâmetros: Sinapses τ a d Para cada frequência foram realizadas 25 execuções do AG, sempre com as mesmas condições iniciais. A mudança da metodologia permitiu a obtenção de frequências mais altas que as apresentadas por Oliveira (2007). Os resultados obtidos pela simulação estão resumidos na Tabela 6, onde é possível observar os valores dos parâmetros encontrados para frequências entre 2 Hz a 34 Hz. O comportamento da rede para as frequências 2 Hz e 34 Hz também podem ser observados nas figuras 26 e 27. A Tabela 6 exibe o melhor resultado obtido (nas 25 execuções do AG) para cada frequência. O critério de parada para o algoritmo genético foi so aprimorado à medida em que as simulações eram realizadas. Durante esta primeira etapa, foi adotado como critério de parada o número máximo de gerações igual a 1000, além do critério de estagnação, isto é, após 250 nas quais não são observadas alterações o algoritmo é finalizado. So assim, o algoritmo levou em média 6 horas para execução de cada simulação chegando, em alguns casos, a 12 horas quando o número máximo

55 4.1 Grupo neuronal homogêneo 54 Figura 26 Resultado obtido para frequência de 2 Hz. Figura 27 Resultado obtido para frequência de 34 Hz.

EMERGÊNCIA DE SINCRONICIDADE EM GRUPOS DE NEURÔNIOS PULSANTES ACOPLADOS

EMERGÊNCIA DE SINCRONICIDADE EM GRUPOS DE NEURÔNIOS PULSANTES ACOPLADOS EMERGÊNCIA DE SINCRONICIDADE EM GRUPOS DE NEURÔNIOS PULSANTES ACOPLADOS Geraldo Magela Couto Oliveira - magela@lsi.cefetmg.br Henrique Elias Borges - henrique@lsi.cefetmg.br Centro Federal de Educação

Leia mais

Modelos integra-e-dispara não-lineares com duas variáveis

Modelos integra-e-dispara não-lineares com duas variáveis Modelos integra-e-dispara não-lineares com duas variáveis Assim como no caso do modelo LIF, os modelos integra-e-dispara não-lineares podem ser estendidos para reproduzir o fenômeno de adaptação nos disparos

Leia mais

GERALDO MAGELA COUTO OLIVEIRA EMERGÊNCIA DE SINCRONICIDADE EM UM SISTEMA DE NEURÔNIOS PULSANTES ACOPLADOS

GERALDO MAGELA COUTO OLIVEIRA EMERGÊNCIA DE SINCRONICIDADE EM UM SISTEMA DE NEURÔNIOS PULSANTES ACOPLADOS GERALDO MAGELA COUTO OLIVEIRA EMERGÊNCIA DE SINCRONICIDADE EM UM SISTEMA DE NEURÔNIOS PULSANTES ACOPLADOS Belo Horizonte MG Dezembro de 2007 GERALDO MAGELA COUTO OLIVEIRA EMERGÊNCIA DE SINCRONICIDADE EM

Leia mais

Introdução à Neurociência Computacional (Graduação) Prof. Antônio Roque Aula 6

Introdução à Neurociência Computacional (Graduação) Prof. Antônio Roque Aula 6 Variações do modelo integra-e-dispara Nesta aula vamos apresentar algumas variações do modelo LIF visto na aula passada. Modelo integra-e-dispara com adaptação Estudos in vitro mostram que muitos tipos

Leia mais

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO AULA 06 Algoritmos Genéticos Sumário Introdução Inteligência Artificial (IA) Algoritmos Genéticos Aplicações de

Leia mais

3. Resolução de problemas por meio de busca

3. Resolução de problemas por meio de busca Inteligência Artificial - IBM1024 3. Resolução de problemas por meio de busca Prof. Renato Tinós Local: Depto. de Computação e Matemática (FFCLRP/USP) 1 Principais Tópicos 3. Resolução de problemas por

Leia mais

DESENVOLVIMENTO DE UM SISTEMA DE COORDENAÇÃO SENSÓRIO-MOTORA PARA ROBÔS COM O USO DE NEURÔNIOS PULSANTES

DESENVOLVIMENTO DE UM SISTEMA DE COORDENAÇÃO SENSÓRIO-MOTORA PARA ROBÔS COM O USO DE NEURÔNIOS PULSANTES DESENVOLVIMENTO DE UM SISTEMA DE COORDENAÇÃO SENSÓRIO-MOTORA PARA ROBÔS COM O USO DE NEURÔNIOS PULSANTES Jeferson Figueiredo Chaves- jeferson@lsi.cefetmg.br Bruno André Santos- bruno@decom.cefetmg.br Henrique

Leia mais

3 Algoritmos Genéticos

3 Algoritmos Genéticos Técnicas de Inteligência Computacional 33 3 Algoritmos Genéticos Este capítulo resume os principais conceitos sobre o algoritmo evolucionário empregado nesta dissertação. É apresentada uma breve explicação

Leia mais

CONSTRUÇÃO DE DETECTOR DE ESTÍMULO COM NEURÔNIO PULSANTE VIA EVOLUÇÃO DIFERENCIAL

CONSTRUÇÃO DE DETECTOR DE ESTÍMULO COM NEURÔNIO PULSANTE VIA EVOLUÇÃO DIFERENCIAL CONSTRUÇÃO DE DETECTOR DE ESTÍMULO COM NEURÔNIO PULSANTE VIA EVOLUÇÃO DIFERENCIAL Gustavo M. Zeferino, Rogério M. Gomes, Henrique E. Borges, Gabriela E. Soares Centro Federal de Educação Tecnológica de

Leia mais

Inteligência Artificial. Algoritmos Genéticos. Aula I Introdução

Inteligência Artificial. Algoritmos Genéticos. Aula I Introdução Universidade Estadual do Oeste do Paraná Curso de Bacharelado em Ciência da Computação Inteligência Artificial Algoritmos Genéticos Aula I Introdução Roteiro Introdução Computação Evolutiva Algoritmos

Leia mais

1. Computação Evolutiva

1. Computação Evolutiva Computação Bioinspirada - 5955010-1 1. Computação Evolutiva Prof. Renato Tinós Programa de Pós-Graduação Em Computação Aplicada Depto. de Computação e Matemática (FFCLRP/USP) 2 Computação Bioinspirada

Leia mais

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas Redes Neurais Pulsadas João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas Introdução Modelos de redes neurais podem ser classificados em gerações. Primeira Geração Neurônios de McCulloch-Pitts

Leia mais

Introdução a Algoritmos Genéticos

Introdução a Algoritmos Genéticos Introdução a Algoritmos Genéticos Tiago da Conceição Mota Laboratório de Inteligência Computacional Núcleo de Computação Eletrônica Universidade Federal do Rio de Janeiro Outubro de 2007 O Que São? Busca

Leia mais

As aulas anteriores trataram do modelo de Hodgkin-Huxley e do formalismo de Hodgkin- Huxley para modelar neurônios.

As aulas anteriores trataram do modelo de Hodgkin-Huxley e do formalismo de Hodgkin- Huxley para modelar neurônios. Modelos de neurônios do tipo integra-e-dispara Introdução As aulas anteriores trataram do modelo de Hodgkin-Huxley e do formalismo de Hodgkin- Huxley para modelar neurônios. Como a estratégia de Hodgkin

Leia mais

Algoritmos Genéticos. Princípio de Seleção Natural. Sub-áreas da Computação Evolutiva. Idéias básicas da CE. Computação Evolutiva

Algoritmos Genéticos. Princípio de Seleção Natural. Sub-áreas da Computação Evolutiva. Idéias básicas da CE. Computação Evolutiva Computação Evolutiva Algoritmos Genéticos A computação evolutiva (CE) é uma área da ciência da computação que abrange modelos computacionais inspirados na Teoria da Evolução das Espécies, essencialmente

Leia mais

INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO

INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO Prof. Msc. Saulo Popov Zambiasi (saulopz@gmail.com) Informação - ICPG - Criciuma - SC 1 Características Gerais, operadores, algoritmo.

Leia mais

Inteligência Artificial

Inteligência Artificial Inteligência Artificial Aula 6 Algoritmos Genéticos M.e Guylerme Velasco Roteiro Introdução Otimização Algoritmos Genéticos Representação Seleção Operadores Geneticos Aplicação Caixeiro Viajante Introdução

Leia mais

Computação Evolutiva Eduardo do Valle Simões Renato Tinós ICMC - USP

Computação Evolutiva Eduardo do Valle Simões Renato Tinós ICMC - USP Computação Evolutiva Eduardo do Valle Simões Renato Tinós ICMC - USP 1 Principais Tópicos Introdução Evolução Natural Algoritmos Genéticos Aplicações Conclusão 2 Introdução http://www.formula-um.com/ Como

Leia mais

Computação Evolutiva. Computação Evolutiva. Principais Tópicos. Evolução natural. Introdução. Evolução natural

Computação Evolutiva. Computação Evolutiva. Principais Tópicos. Evolução natural. Introdução. Evolução natural Computação Evolutiva Eduardo do Valle Simões Renato Tinós ICMC - USP Principais Tópicos Introdução Evolução Natural Algoritmos Genéticos Aplicações Conclusão 1 2 Introdução Evolução natural http://www.formula-um.com/

Leia mais

Algoritmos Genéticos

Algoritmos Genéticos Algoritmos Genéticos Roteiro Introdução Algoritmos Genéticos Otimização Representação Seleção Operadores Genéticos Aplicação Caixeiro Viajante Introdução Algoritmos Genéticos (AGs), são métodos de otimização

Leia mais

COORDENAÇÃO SENSÓRIO-MOTORA PARA NAVEGAÇÃO DE ROBÔS BASEADO EM REDES DE NEURÔNIOS PULSANTES: RESULTADOS PRELIMINARES Bruno André Santos, Jeferson Figueiredo Chaves, Henrique Elias Borges, José Luiz Acebal

Leia mais

Introdução aos Algoritmos Genéticos

Introdução aos Algoritmos Genéticos Introdução aos Algoritmos Genéticos Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Algoritmos Genéticos: Introdução Introduzidos

Leia mais

Metahuerísticas: Algoritmos Genéticos. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng.

Metahuerísticas: Algoritmos Genéticos. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. Metahuerísticas: Algoritmos Genéticos Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 8) Meta-heurísticas Classificação de métodos heurísticos: os métodos

Leia mais

Algoritmos Genéticos. Estéfane G. M. de Lacerda DCA/UFRN Outubro/2008

Algoritmos Genéticos. Estéfane G. M. de Lacerda DCA/UFRN Outubro/2008 Estéfane G. M. de Lacerda DCA/UFRN Outubro/2008 Introdução São técnicas de busca e otimização. É a metáfora da teoria da evolução das espécies iniciada pelo Fisiologista e Naturalista inglês Charles Darwin.

Leia mais

Algoritmos Genéticos. Pontos fracos dos métodos tradicionais. Características de alguns problemas. Tamanho do espaço de busca- Ex. caixeiro viajante:

Algoritmos Genéticos. Pontos fracos dos métodos tradicionais. Características de alguns problemas. Tamanho do espaço de busca- Ex. caixeiro viajante: Algoritmos Genéticos Prof. Luis Otavio Alvares INE/UFSC Características de alguns problemas Tamanho do espaço de busca- Ex. caixeiro viajante: 10 cidades: 181.000 soluções 20 cidades: 10.000.000.000.000

Leia mais

Estratégias Evolutivas EEs. Prof. Juan Moisés Mauricio Villanueva

Estratégias Evolutivas EEs. Prof. Juan Moisés Mauricio Villanueva Estratégias Evolutivas EEs Prof. Juan Moisés Mauricio Villanueva jmauricio@cear.ufpb.br www.cear.ufpb.br/juan Estratégias Evolutivas Desenvolvidas por Rechenberg e Schwefel, e estendida por Herdy, Kursawe

Leia mais

Prático de Modelagem Computacional em Neurociência. Dia 25 de Julho. Redes

Prático de Modelagem Computacional em Neurociência. Dia 25 de Julho. Redes Prático de Modelagem 1o Curso Computacional em Neurociência Dia 25 de Julho Redes Rodrigo FO Pena Doutorando Por que redes? Neurociência: ciência complexa ~86 bilhões de neurônios Trilhões de sinapses

Leia mais

Codificação das variáveis: binária Iniciação da população: aleatória Avaliação: função aptidão Operadores. Critério de parada: número de gerações

Codificação das variáveis: binária Iniciação da população: aleatória Avaliação: função aptidão Operadores. Critério de parada: número de gerações AG Simples/Canônico (AGS) AG introduzido por Holland Funciona bem para problemas de otimização simples e/ou de pequenas dimensões A maior parte da teoria dos AGs está baseada no AGS Utilidade didática

Leia mais

Algoritmos Genéticos

Algoritmos Genéticos Algoritmos Genéticos Introdução Um Algoritmo Genético (AG), conceitualmente, segue passos inspirados no processo biológico de evolução natural segundo a teoria de Darwin Algoritmos Genéticos seguem a idéia

Leia mais

Quarto projeto computacional (data de entrega: 05/06/17)

Quarto projeto computacional (data de entrega: 05/06/17) Quarto projeto computacional (data de entrega: 05/06/17) 1. Escreva um programa em MATLAB (ou na sua linguagem favorita) que implemente numericamente o modelo de neurônio integra-e-dispara com vazamento

Leia mais

Modelos de neurônios baseados na taxa de disparos

Modelos de neurônios baseados na taxa de disparos Modelos de neurônios baseados na taxa de disparos Devido à complexidade dos chamados modelos realistas de neurônios e redes neurais, baseados no formalismo de Hodgkin-Huxley, muitos autores preferem usar

Leia mais

Terceiro Projeto Computacional (data de entrega: 02/05/18)

Terceiro Projeto Computacional (data de entrega: 02/05/18) Terceiro Projeto Computacional (data de entrega: 0/05/18) 1. Nesta questão, você deverá aproveitar o código escrito no Projeto Computacional em que implementou a solução numérica do modelo de Hodgkin-Huxley.

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

Algoritmos Genéticos. Texto base: Stuart Russel e Peter Norving - Inteligência Artificial

Algoritmos Genéticos. Texto base: Stuart Russel e Peter Norving - Inteligência Artificial Algoritmos Genéticos Texto base: Stuart Russel e Peter Norving - Inteligência Artificial junho/2007 Algoritmo Genético Uma variante da busca em feixe estocástica Estado sucessor gerado pela combinação

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

6 Estudos de Casos Porta Lógica OU de 4 Entradas

6 Estudos de Casos Porta Lógica OU de 4 Entradas 6 Estudos de Casos Com o objetivo de avaliar a síntese automática de circuitos de QCA usando técnicas de Hardware Evolucionário (EHW), alguns circuitos foram sintetizados e serão apresentados a seguir.

Leia mais

Exemplo de Aplicação de Algoritmos Genéticos. Prof. Juan Moisés Mauricio Villanueva cear.ufpb.br/juan

Exemplo de Aplicação de Algoritmos Genéticos. Prof. Juan Moisés Mauricio Villanueva cear.ufpb.br/juan Exemplo de Aplicação de Algoritmos Genéticos Prof. Juan Moisés Mauricio Villanueva jmauricio@cear.ufpb.br cear.ufpb.br/juan Estrutura do Algoritmo Genético Algoritmo genético Inicio t = 0 inicializar P(t)

Leia mais

Otimização com Algoritmos Genéticos no MATLAB. Prof. Rafael Saraiva Campos CEFET-RJ

Otimização com Algoritmos Genéticos no MATLAB. Prof. Rafael Saraiva Campos CEFET-RJ Otimização com Algoritmos Genéticos no MATLAB Prof. Rafael Saraiva Campos CEFET-RJ Conteúdo do Mini-Curso PARTE 1 Teoria PARTE 2 Prática Conteúdo do Mini-Curso PARTE 1 Teoria 1.1. Conceitos Básicos de

Leia mais

Assim, no algoritmo BIOCLIM, qualquer ponto do espaço pode ser classificado como:

Assim, no algoritmo BIOCLIM, qualquer ponto do espaço pode ser classificado como: ANEXO A ALGORITMOS BIOCLIM E GARP A.1 Algoritmo BIOCLIM O algoritmo BIOCLIM implementa o conceito de envelope bioclimático (Nix, 1986). O algoritmo calcula a média e o desvio-padrão para cada variável

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

3 Algoritmos Genéticos

3 Algoritmos Genéticos Algoritmos Genéticos Algoritmos Genéticos (AGs) constituem um mecanismo de busca adaptativa que se baseia no princípio Darwiniano de seleção natural e reprodução genética [101]. AGs são tipicamente empregados

Leia mais

Max Pereira. Inteligência Artificial

Max Pereira. Inteligência Artificial Max Pereira Inteligência Artificial Algoritmos Genéticos Algoritmos Genéticos São técnicas de busca e otimização. Uma metáfora da teoria da evolução das espécies iniciada pelo Naturalista inglês Charles

Leia mais

Algoritmos Genéticos

Algoritmos Genéticos Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Algoritmos Genéticos Aluno: Fabricio Aparecido Breve Prof.: Dr. André Ponce de Leon F. de Carvalho São Carlos São Paulo Maio

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

5 Projeto de Novos Polímeros Condutores

5 Projeto de Novos Polímeros Condutores 5 Projeto de Novos Polímeros Condutores Polímeros condutores constituem uma nova classe de materiais eletrônicos com propriedades incomuns, baseadas em novos fenômenos físicos, tendo aplicações com largo

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

4 Implementação Computacional

4 Implementação Computacional 4 Implementação Computacional 4.1. Introdução Neste capítulo é apresentada a formulação matemática do problema de otimização da disposição das linhas de ancoragem para minimizar os deslocamentos (offsets)

Leia mais

Computação Evolutiva e Cognitiva Simulação de Vida Artificial e Cognição

Computação Evolutiva e Cognitiva Simulação de Vida Artificial e Cognição Computação Evolutiva e Cognitiva Simulação de Vida Artificial e Cognição PROVA DIDÁTICA Tema 01 Neurônios ESCOLA POLITÉCNICA DA USP Engenharia de Sistemas Eletrônicos Especialidade 1 PROVA DIDÁTICA Tema

Leia mais

INTRODUÇÃO À INTELIGÊNCIA COMPUTACIONAL. Aula 06 Prof. Vitor Hugo Ferreira

INTRODUÇÃO À INTELIGÊNCIA COMPUTACIONAL. Aula 06 Prof. Vitor Hugo Ferreira Universidade Federal Fluminense Escola de Engenharia Departamento de Engenharia Elétrica INTRODUÇÃO À INTELIGÊNCIA COMPUTACIONAL Aula 06 Prof. Vitor Hugo Ferreira Representação por cromossomos Codificação

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

Algoritmo Genético. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Algoritmo Genético. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Algoritmo Genético Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução 2. Conceitos Básicos 3. Aplicações 4. Algoritmo 5. Exemplo Introdução São técnicas de busca

Leia mais

1. Computação Evolutiva

1. Computação Evolutiva Computação Bioinspirada - 5955010-1 1. Computação Evolutiva Prof. Renato Tinós Programa de Pós-Graduação Em Computação Aplicada Depto. de Computação e Matemática (FFCLRP/USP) 2 Computação Bioinspirada

Leia mais

FLUXO DE INFORMAÇÃO ENTRE DOIS MODELOS DE NEURÔNIO DE HINDMARSH-ROSE

FLUXO DE INFORMAÇÃO ENTRE DOIS MODELOS DE NEURÔNIO DE HINDMARSH-ROSE FLUXO DE INFORMAÇÃO ENTRE DOIS MODELOS DE NEURÔNIO DE HINDMARSH-ROSE Aryadyne Bueno Rocha Szesz (PIBIC/Fundação Araucária/UEPG), Sandro Ely de Souza Pinto (Orientador), e-mail: dsouzapinto@gmail.com Universidade

Leia mais

ESTUDO DOS PARAMETROS DE UM ALGORITMO GENÉTICO PARA POSTERIOR USO NA SOLUÇÃO DE PROBLEMAS DO TIPO JOB-SHOP

ESTUDO DOS PARAMETROS DE UM ALGORITMO GENÉTICO PARA POSTERIOR USO NA SOLUÇÃO DE PROBLEMAS DO TIPO JOB-SHOP ESTUDO DOS PARAMETROS DE UM ALGORITMO GENÉTICO PARA POSTERIOR USO NA SOLUÇÃO DE PROBLEMAS DO TIPO JOB-SHOP Gilson Rogério Batista, Gideon Villar Leandro Universidade Regional do Noroeste do Estado do Rio

Leia mais

1. Computação Evolutiva

1. Computação Evolutiva Computação Bioinspirada - 5955010-1 1. Computação Evolutiva Prof. Renato Tinós Programa de Pós-Graduação Em Computação Aplicada Depto. de Computação e Matemática (FFCLRP/USP) 2 Computação Bioinspirada

Leia mais

Modelos Evolucionários e Tratamento de Incertezas

Modelos Evolucionários e Tratamento de Incertezas Ciência da Computação Modelos Evolucionários e Tratamento de Incertezas Aula 01 Computação Evolucionária Max Pereira Motivação Se há uma multiplicidade impressionante de algoritmos para solução de problemas,

Leia mais

Algoritmos Genéticos. 1 Semestre de Cleber Zanchettin UFPE - Universidade Federal de Pernambuco CIn - Centro de Informática

Algoritmos Genéticos. 1 Semestre de Cleber Zanchettin UFPE - Universidade Federal de Pernambuco CIn - Centro de Informática Algoritmos Genéticos 1 Semestre de 2015 Cleber Zanchettin UFPE - Universidade Federal de Pernambuco CIn - Centro de Informática 1 2 Introdução Darwin Naturalistas: cada espécie havia sido criada separadamente

Leia mais

Mapas Auto-Organizáveis de Kohonen SOM

Mapas Auto-Organizáveis de Kohonen SOM Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

7 Estudo de Casos: Obtenção de uma Regra de Decisão Ótima por Aproximação com Algoritmos Genéticos

7 Estudo de Casos: Obtenção de uma Regra de Decisão Ótima por Aproximação com Algoritmos Genéticos 7 Estudo de Casos: Obtenção de uma Regra de Decisão Ótima por Aproximação com Algoritmos Genéticos 7.. Introdução Este capítulo analisa o problema de decisão de investimento num projeto sujeito a incertezas

Leia mais

Inteligência Artificial

Inteligência Artificial Inteligência Artificial Prof. Kléber de Oliveira Andrade pdjkleber@gmail.com Algoritmos Genéticos Conteúdo Introdução O Algoritmo Genético Binário Noções de Otimização O Algoritmo Genético com Parâmetros

Leia mais

Algoritmos genéticos Abordagem unificada de algoritmos evolutivos simples

Algoritmos genéticos Abordagem unificada de algoritmos evolutivos simples Introdução Inspiração biológica Histórico da computação evolutiva Algoritmo evolutivo simples Programação evolutiva Estratégias evolutivas Algoritmos genéticos Abordagem unificada de algoritmos evolutivos

Leia mais

INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO

INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO Prof. Msc. Saulo Popov Zambiasi (saulopz@gmail.com) 12/07/08 08:09 Informação - ICPG - Criciuma - SC 1 Fundamentação Biológica, O Neurônio

Leia mais

2º Curso Prático de Modelagem Computacional em Neurociência. Neurossimuladores. Renan O. Shimoura Doutorando

2º Curso Prático de Modelagem Computacional em Neurociência. Neurossimuladores. Renan O. Shimoura Doutorando 2º Curso Prático de Modelagem Computacional em Neurociência Neurossimuladores Renan O. Shimoura Doutorando O que são? Linguagens computacionais ou pacotes para uma linguagem já existente desenvolvidos

Leia mais

Otimização. Unidade 6: Algoritmo Genético. Jaime Arturo Ramírez. 7. Teoria do processo evolutivo num GA. 8. Aspectos avançados

Otimização. Unidade 6: Algoritmo Genético. Jaime Arturo Ramírez. 7. Teoria do processo evolutivo num GA. 8. Aspectos avançados Otimização Jaime Arturo Ramírez Conteúdo 1. Introdução 2. Analogia de mecanismos de seleção natural com sistemas artificiais 3. Algoritmo genético modelo 4. Um GA simples 5. Representação, genes e cromossomos

Leia mais

Mapas Auto-Organizáveis de Kohonen SOM

Mapas Auto-Organizáveis de Kohonen SOM Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.1. Introdução às Redes Neurais Artificiais (RNAs) 2.1.1. Motivação

Leia mais

4 Cálculo de Equivalentes Dinâmicos

4 Cálculo de Equivalentes Dinâmicos 4 Cálculo de Equivalentes Dinâmicos 4.1. Introdução Os sistemas de potência interligados vêm adquirindo maior tamanho e complexidade, aumentando a dependência de sistemas de controle tanto em operação

Leia mais

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann: Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis

Leia mais

SIMULAÇÃO DA ATIVIDADE ELETROFISIOLÓGICA DE NEURÔNIOS

SIMULAÇÃO DA ATIVIDADE ELETROFISIOLÓGICA DE NEURÔNIOS 1 SIMULAÇÃO DA ATIVIDADE ELETROFISIOLÓGICA DE NEURÔNIOS O Programa AXOVACS [baseado no modelo proposto por Hodgkin e Huxley (1952) (J.Physiol. 117, 500)], que permite simular a atividade eletrofisiológica

Leia mais

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado

Leia mais

Técnicas de Inteligência Artificial

Técnicas de Inteligência Artificial Universidade do Sul de Santa Catarina Ciência da Computação Técnicas de Inteligência Artificial Aula 9 Algoritmos Genéticos Max Pereira Algoritmos Genéticos Algoritmos Genéticos São técnicas de busca e

Leia mais

CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa. Prof. Paulo André Castro

CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa. Prof. Paulo André Castro CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa Prof. Paulo André Castro pauloac@ita.br www.comp.ita.br/~pauloac Sala 110, IEC-ITA Sumário Busca Competitiva Para Ambientes multiagentes...

Leia mais

Estrutura comum dos AEs Seleção

Estrutura comum dos AEs Seleção Estrutura comum dos AEs Seleção Todos os AEs mantém uma população de tamanho m por: Utilizando uma população como fonte de pais para produzir n descendentes Reduzindo o tamanho da população expandida de

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

Aprendizado Evolutivo: Introdução aos Algoritmos Genéticos

Aprendizado Evolutivo: Introdução aos Algoritmos Genéticos Aprendizado Evolutivo: Introdução aos Algoritmos Genéticos SCC-230 Inteligência Artificial Thiago A. S. Pardo Solange O. Rezende 1 Computação Evolutiva (CE) Trata de sistemas para a resolução de problemas

Leia mais

Modelagem matemática e computacional de neurônios

Modelagem matemática e computacional de neurônios Modelagem matemática e computacional de neurônios www.lncc.br/ alm Laboratório Nacional de Computação Científica LNCC Petrópolis - RJ Jornada em Neuropsiquiatria Computacional LNCC 02 e 03 de fevereiro

Leia mais

1. Computação Evolutiva

1. Computação Evolutiva Computação Bioinspirada - 5955010-1 1. Computação Evolutiva Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 1.7. Outras Metaheurísticas Populacionais 1.7.1. Metaheurísticas Populacionais

Leia mais

Self Organizing Maps - Redes de Kohonen

Self Organizing Maps - Redes de Kohonen Self Organizing Maps - Redes de Kohonen 1. Redes auto organizáveis Existe uma classe de redes neurais artificias que possuem a capacidade de auto organização, sendo por isto chamadas de redes auto organizáveis.

Leia mais

ALGORITMOS GENÉTICOS. Adair Santa Catarina Curso de Ciência da Computação Unioeste Campus de Cascavel PR

ALGORITMOS GENÉTICOS. Adair Santa Catarina Curso de Ciência da Computação Unioeste Campus de Cascavel PR ALGORITMOS GENÉTICOS Adair Santa Catarina Curso de Ciência da Computação Unioeste Campus de Cascavel PR Fev/2018 Introdução Algoritmos Genéticos são algoritmos heurísticos de busca, que utilizam regras

Leia mais

OTIMIZAÇÃO DA LIMPEZA DE REDES DE TROCADORES DE CALOR EMPREGANDO OS ALGORITMOS GENÉTICOS

OTIMIZAÇÃO DA LIMPEZA DE REDES DE TROCADORES DE CALOR EMPREGANDO OS ALGORITMOS GENÉTICOS OTIMIZAÇÃO DA LIMPEZA DE REDES DE TROCADORES DE CALOR EMPREGANDO OS ALGORITMOS GENÉTICOS C. de O. GONÇALVES 1, E. M. QUEIROZ 2, F. L. P. PESSOA 2, F. S. LIPORACE 3, S. G. OLIVEIRA 3 e A. L. H. COSTA 1

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 06 Algoritmos Genéticos Edirlei Soares de Lima Algoritmos Genéticos Método de busca local. Boa abordagem para lidar com espaços de busca muito

Leia mais

1º Curso Prático de Modelagem Computacional em Neurociência. Neurossimuladores. Renan O. Shimoura Doutorando

1º Curso Prático de Modelagem Computacional em Neurociência. Neurossimuladores. Renan O. Shimoura Doutorando 1º Curso Prático de Modelagem Computacional em Neurociência Neurossimuladores Renan O. Shimoura Doutorando O que são? Linguagens computacionais ou pacotes para uma linguagem já existente desenvolvidos

Leia mais

PRINCÍPIOS DE NEUROCOMPUTAÇÃO

PRINCÍPIOS DE NEUROCOMPUTAÇÃO PRINCÍPIOS DE NEUROCOMPUTAÇÃO Neurocomputação Funcionamento do cérebro humano e os neurônios Formação das conexões e como se concebe teoricamente a aquisição do conhecimento, formalizando-os em procedimentos

Leia mais

Inteligência Computacional

Inteligência Computacional Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Na Aula Passada... O que é uma

Leia mais

Métodos de Busca. Inteligência Artificial. Algoritmos Genéticos. Algoritmos Evolucionários. Prof. Ms. Luiz Alberto Contato:

Métodos de Busca. Inteligência Artificial. Algoritmos Genéticos. Algoritmos Evolucionários. Prof. Ms. Luiz Alberto Contato: Inteligência Artificial Prof. Ms. Luiz Alberto Contato: lasf.bel@gmail.com Métodos de Busca Busca Cega ou Exaustiva: Não sabe qual o melhor nó da fronteira a ser expandido. Apenas distingue o estado objetivo

Leia mais

Agentes Adaptativos. Introdução

Agentes Adaptativos. Introdução Agentes Adaptativos Capítulo 6: Costa, E. e Simões, A. (2015). Inteligência Artificial Fundamentos e Aplicações, 3.ª edição, FCA. AGENTES ADAPTATIVOS 1 Introdução Os seres vivos que não se adaptam ao seu

Leia mais

ALGORITMO GENÉTICO COMO REPRESENTAÇÃO DAS MUTAÇÕES NA BIOLOGIA

ALGORITMO GENÉTICO COMO REPRESENTAÇÃO DAS MUTAÇÕES NA BIOLOGIA Patrocínio, MG, outubro de 2016 ENCONTRO DE PESQUISA & EXTENSÃO, 3., 2016, Patrocínio. Anais... Patrocínio: IFTM, 2016. ALGORITMO GENÉTICO COMO REPRESENTAÇÃO DAS MUTAÇÕES NA BIOLOGIA Igor Acassio Melo

Leia mais

5 Detalhamento da solução

5 Detalhamento da solução 5 Detalhamento da solução Partindo das equações estabelecidas no capítulo 3 e da técnica de otimização definida no capítulo 4, chega-se a uma solução concreta para o problema que será detalhado nesse capítulo.

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

SCC Capítulo 3 Aprendizado

SCC Capítulo 3 Aprendizado Aprendizado Supervisionado Não Supervisionado Tarefas SCC-5809 - Capítulo 3 Aprendizado João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2012 João Luís G. Rosa c 2012 - SCC-5809: Redes Neurais

Leia mais

Técnicas de Inteligência Artificial

Técnicas de Inteligência Artificial Universidade do Sul de Santa Catarina Ciência da Computação Técnicas de Inteligência Artificial Aula 9 Algoritmos Genéticos Max Pereira Algoritmos Genéticos São técnicas de busca e otimização. Uma metáfora

Leia mais

4 APLICAÇÃO DO MODELO E RESULTADOS

4 APLICAÇÃO DO MODELO E RESULTADOS 4 APLICAÇÃO DO MODELO E RESULTADOS Neste capítulo, será aplicado o modelo proposto (Holt-Winters com múltiplos ciclos mais a correção devido à ocorrência de feriado e temperatura) e apresentados os resultados

Leia mais

Dinâmica das Células Excitáveis

Dinâmica das Células Excitáveis Faculdade de Ciências e Tecnologia Universidade de Coimbra Eng. Biomédica Dinâmica das Células Excitáveis Modelos dos Processos Fisiológicos no Homem Junho 2005 1 Realizado por: Carla S. Silva Pereira

Leia mais

SOLUÇÕES HEURÍSTICAS PARA O JOGO DE DAMAS

SOLUÇÕES HEURÍSTICAS PARA O JOGO DE DAMAS Universidade Federal do Tocantins SOLUÇÕES HEURÍSTICAS PARA O JOGO DE DAMAS Diogo Rigo de Brito Guimarães Alexandre Tadeu Rossini da Silva Objetivo Implementar soluções heurísticas para o Jogo de Damas

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

FORECASTING OF EUCALYPTUS WOOD PRICES FOR CELLULOSE AND SAWMILL USING RADIAL BASIS FUNCTION NEURAL NETWORK AND CLUSTERING METHOD

FORECASTING OF EUCALYPTUS WOOD PRICES FOR CELLULOSE AND SAWMILL USING RADIAL BASIS FUNCTION NEURAL NETWORK AND CLUSTERING METHOD FORECASTING OF EUCALYPTUS WOOD PRICES FOR CELLULOSE AND SAWMILL USING RADIAL BASIS FUNCTION NEURAL NETWORK AND CLUSTERING METHOD Roberto Max Protil - PUCPR Leandro dos Santos Coelho PUCPR Wesley Vieira

Leia mais