Troca de Chaves Criptográficas com Redes Neurais Artificiais
|
|
- Catarina Miranda Paiva
- 6 Há anos
- Visualizações:
Transcrição
1 Troca de Chaves Criptográficas com Redes Neurais Artificiais Denis R. M. Piazentin 1, Maurício Duarte 1 1 Computer and Information Systems Research Lab (COMPSI) Centro Universitário Eurípedes de Marília (UNIVEM) Marília, SP Brasil denis@piazentin.com, maur.duarte@univem.edu.br Abstract. Encryption algorithms work by scrambling information to protected then from unauthorized access. These algorithms use cryptographic keys, a data used by a given algorithm for scrambling the information and subsequent restoration of these information through decryption. The distribution of cryptographic keys is a known problem in cryptography. Given that artificial neural networks can synchronize by mutual learning, adjusting their weights, it is possible to use this property of synchronization to solve the problem of exchanging cryptographic keys. This work is the study of this technique, known as Neural Cryptography. Resumo. Algoritmos de criptografia trabalham embaralhando informações para as proteger de acesso indevido. Esses algoritmos usam chaves criptográficas, um dado usado pelo algoritmo para o embaralhamento das informações e posterior restauração dos mesmos através da descriptografia. A distribuição das chaves criptográficas é um conhecido problema em criptografia. Tendo em vista que redes neurais artificiais podem se sincronizar por aprendizado mútuo, ajustando seus pesos, é possível usar essa propriedade de sincronização para solucionar o problema de troca de chaves criptográficas. Este trabalho é o estudo desta técnica, conhecida como Criptografia Neural. 1. Introdução A criptografia usa algoritmos criptográficos para transformar texto plano em texto cifrado e utiliza um dado chamado chave criptográfica para criptografar e descriptografar esses textos. Fazer com que ambas as partes da comunicação possuam essa mesma chave é um problema conhecido em criptografia, que já teve propostas e implementadas soluções como o uso de um terceiro confiável, a troca com antecedência e uso de chaves públicas. A sincronização de redes neurais e o uso de seus pesos como chaves criptográficas é uma alternativa ao problema de troca de chave. Com a descoberta da sincronização entre redes neurais por um processo conhecido como aprendizagem mútua, onde os pesos são ajustados até que convirjam e com a criação de redes neurais com uma estrutura diferenciada onde há uma sincronização muito mais rápida que o treinamento comum, foi possível propor um protocolo de troca de chaves que utiliza os pesos dessas redes sincronizadas como chaves criptográficas, criando uma alternativa ao problema de troca de chave.
2 Este trabalho tem como objetivo prover uma revisão bibliográfica e apresentar o uso da sincronização de redes neurais artificiais como protocolo de troca de chaves. A criptografia neural é uma alternativa interessante, tendo em vista que problemas encontrados em outros protocolos não são observáveis aqui. 2. Criptografia e Troca de Chaves Criptografar é o ato de converter informações sensíveis em textos ilegíveis, enquanto que, o processo inverso, converter textos ilegíveis em informação legível, consiste do ato de descriptografar. Para criptografar e descriptografar dados, utilizam-se algoritmos criptográficos que, por sua vez, utilizam um dado conhecido como chave. Na criptografia computadorizada, a chave é sempre um número ou um conjunto de números [Burnett e Paine 2001]. Alguns algoritmos de criptografia mais conhecidos são o Data Encryption Standart (DES), o Advanced Encryption Standart (AES) e o RSA [Terada 2008]. O DES foi o primeiro algoritmo de criptografia de conhecimento público e se tornou o padrão comercial em algoritmos criptográficos, junto com sua variante, Triple DES. No DES e nos algoritmos públicos que se seguiram, a segurança se baseia exclusivamente no conhecimento da chave secreta. O DES e todos os algoritmos conhecidos como de criptografia de chave simétrica utilizam a mesma chave para criptografar e descriptografar [Terada 2008]. Sucessor do DES, o AES foi escolhido para ser o novo padrão comercial através de uma competição criada em Os algoritmos candidatos a AES foram analisados quanto à sua segurança, performance e tamanho [Burnett e Paine 2001]. A partir dessa análise, foram selecionados uma série de algoritmos que foram e- xaustivamente testados e, em outubro de 2000, o algoritmo Rijndael foi escolhido e adotado como AES [Terada 2008]. O AES é um algoritmo de chave simétrica que utiliza chaves de 128, 192 ou 256 bits de comprimento [Terada 2008]. O algoritmo RSA, publicado em 1978, utiliza o conceito de chaves públicas e privadas. Nesse esquema, cada usuário possui seu par de chaves; a chave pública, que é usada por terceiros para criptografar o conteúdo e uma chave distinta, privada, que é usada pelo usuário para descriptografar os dados [Burnett e Paine 2001]. O algoritmo RSA comumente é utilizado para criptografar uma chave de sessão, que é usada por outro algoritmo, de criptografia simétrica, para criptografar e descriptografar a mensagem em si [Burnett e Paine 2001]. Isso ocorre porque algoritmos de chave pública como o RSA são muito mais lentos que os de chave simétrica, chegando a ser 500 vezes mais lento em algumas comparações [Burnett e Paine 2001]. A criptografia de chave pública é uma das soluções para o problema de troca de chaves. A criptografia é usada para proteger a troca de informações secretas, mas para isso também é necessário proteger as chaves que descriptografam essas informações e, se um atacante pode interceptar a mensagem com o texto cifrado, também pode interceptar a mensagem com a chave que a descriptografa [Burnett e Paine 2001]. Outras soluções para o problema de troca de chaves são a troca de chaves com antecedência, o uso de um terceiro confiável e a criptografia neural. Na troca de chaves com antecedência, as duas partes que desejam se comuni-
3 car devem se encontrar antes e compartilhar a chave que será usada para criptografar as mensagens através de um meio de comunicação seguro [Burnett e Paine 2001]. O principal problema com esse protocolo é a dificuldade na troca de chaves que surge quando as partes estão em locais geograficamente distantes ou quando muitas partes desejam se comunicar, situações em que ocorrem problemas de logística que inviabilizam a troca [Burnett e Paine 2001]. No caso de terceiro confiável, cada parte possui uma chave diferente compartilhada com uma terceira parte confiável (trusted third party, TTP), que armazena a chave de todas as outras partes e tem acesso a todas as mensagens [Burnett e Paine 2001]. O principal problema com esse protocolo é que a confiabilidade da TTP é extremamente crítica, e caso a TTP seja perdida ou comprometida de qualquer forma, é necessário obter outra TTP e reiniciar o processo de geração de chaves para todas as partes, o que pode ser muito custoso [Burnett e Paine 2001]. Criptografia neural utiliza os pesos de redes neurais sincronizadas como chaves criptográficas [Kinzel e Kanter 2002]. O protocolo se baseia na propriedade de sincronização de certas redes neurais e no fato de que a sincronização é muito mais rápida que o aprendizado de uma terceira rede neural de um atacante que esteja apenas monitorando a comunicação [Ruttor 2007]. 3. Redes Neurais Artificiais Redes neurais artificiais (RNAs) são sistemas paralelos distribuídos por unidades de processamento simples (neurônios artificiais) que calculam determinadas funções matemáticas [Braga et al. 2007]. O primeiro neurônio artificial, que foi proposto em 1943 por McCulloch e Pitts, é um simplificação do neurônio biológico, que é dividido em corpo ou soma, dendritos e axônio, conforme ilustrado na Figura 1. Figura 1. Modelo de neurônio biológico com o corpo, os dendritos e o axônio com seus terminais sinápticos. Fonte: próprio autor O modelo de neurônio artificial foi composto de n terminais de entrada, recebendo os valores x 1, x 2,..., x n, com pesos acoplados w 1, w 2,..., w n representando a força das sinapses do neurônio, com o efeito da sinapse i então sendo dado por x i w i no momento em que o neurônio atinge seu limiar de excitação, dado pela somatória dos valores x i w i e por uma função de ativação f(u), com o disparo sendo dado pela saída y nos valores 1 ou 0 [Braga et al. 2007] [Russell e Norvig 2010]. O modelo do neurônio artificial é representado na Figura 2.
4 Figura 2. Modelo matemático de um neurônio artificial, com as entradas x 1, x 2,..., x n, pesos w 1, w 2,..., w n, saída y e corpo com a somatória de x i w i e função de ativação f(u). Fonte: próprio autor Neurônios individuais são computacionalmente limitados, mas conjuntos de neurônios organizados em forma de rede podem resolver problemas mais complexos [Braga et al. 2007]. Para isso, se organizam redes de neurônios artificiais com quantia de camadas variadas e com conexão entre si unidirecionais (feedforward) ou recorrentes, com saídas da camada inferior alimentando entradas da camada superior [Braga et al. 2007]. As RNAs são treinadas para aprender e melhorar sua performance na resolução de um problema [Haykin 1999]. Esse treinamento consiste de um processo iterativo de ajuste dos pesos das conexões [Braga et al. 2007] em que as entradas da rede são alimentadas e, de acordo com o resultado, os pesos são ajustados. O ajuste dos pesos é dado por w(t + 1) = w(t) + w(t), com w(t + 1) sendo o valor do peso no instante t + 1 e w(t) o ajuste aplicado aos pesos. O treinamento ou aprendizado pode ser supervisionado ou não supervisionado. No treinamento supervisionado, há um supervisor estimulando as entradas e ajustando os pesos para aproximar sua saída da saída desejada. No treinamento não supervisionado, padrões são apresentados continuamente à rede e as regularidades nos dados apresentados torna o aprendizado possível [Braga et al. 2007]. A regra de aprendizado de Hebb, uma das regras de aprendizado usadas na criptografia neural, que propõe que o peso deve ser ajustado caso haja sincronismo entre atividades de entrada e saída, é classificada como não supervisionada [Braga et al. 2007]. 4. Criptografia Neural A sincronização de redes neurais é um caso especial de aprendizado onde duas redes neurais são iniciadas com pesos escolhidos aleatoriamente e, a cada passo do processo de sincronização, recebem um vetor de entradas gerado publicamente, calculam suas saídas e as comunicam uma para a outra. Caso o mapeamento entre a entrada atual e a saída de ambas as redes não seja igual, os pesos da rede são atualizados de acordo com uma das regras aplicáveis [Ruttor 2007]. Nas redes neurais mais simples, como os perceptrons, não se observa diferença significativa entre o tempo para a rede ser treinada por exemplos do tempo necessário para sincronizar, porém redes neurais com uma estrutura específica, as Tree Parity
5 Machines (TPM), sincronizam muito mais rápido do que uma terceira rede que esteja escutando a comunicação precisa para aprender, e essa diferença de tempo é usada pelo protocolo para resolver o problema de troca de chaves [Ruttor 2007]. A arquitetura da rede TPM foi apresentada no artigo Secure exchange of information by synchronization of neural networks [Kanter et al. 2002] e pode ser vista na Figura 3: Figura 3. Estrutura de uma Tree Parity Machine, com K = 3 e N = 4. Fonte: próprio autor A TPM é composta por três camadas, a de entrada, a oculta e a de saída, respectivamente. A camada oculta possui K unidades, representados na Figura 3 por o i onde i = 1,..., K, com cada unidade possuindo N unidades da camada de entradas x j com peso associado w j, onde j = 1,..., N. A camada de saída possui apenas uma unidade y. Tem-se que todos os valores de entradas são binários, tais que x i,j { 1, +1} (1) e os pesos que definem o mapeamento de entradas para saída são números discretos entre L e +L, w i,j { L, L + 1,..., +L 1, L} (2) como em outras redes neurais, tem-se também que o estado de cada neurônio é dado pelo somatório de x j w j, h i = 1 N x i w i = 1 N N j=1 com a saída o i sendo definida pela função sinal de h i, x i,j w i,j (3) o i = sgn(h i ) (4) com o caso especial de h i = 0 sendo mapeado para 1 para garantir um valor de saída binário. Tem-se então que a saída total y da TPM é dado pelo produto (paridade) das unidades da camada oculta o i, y = K o i (5) i=1 De tal forma, a saída y apenas indica se o número de unidades inativas da camada oculta é par (y = +1) ou ímpar(y = 1) e, consequentemente, há 2 K 1
6 diferentes representações internas (o 1, o 2,..., o k ) que resultam no mesmo valor de y [Ruttor 2007]. O processo de sincronização tem início com os pesos das TPM A e B sendo inicializados com valores aleatórios, não relacionados e secretos. Após isso, para cada passo da sincronização, é gerada publicamente uma lista de valores aleatórios de tamanho K N que alimenta as entradas A e B, em que as saídas y A e y B são calculadas [Ruttor 2007]. Caso y A y B nenhuma ação é tomada e caso y A = y B é aplicada uma das regras de aprendizado, que são [Prabakaran e P. 2010]: Regra de aprendizado de Hebb: w A/B i Regra de aprendizado anti-hebb: w A/B i (t + 1) = w A/B i (t) + x i y A/B Θ(y A/B o A/B i )Θ(y A y B ) (6) (t + 1) = w A/B i (t) x i o i Θ(y A/B o A/B i )Θ(y A y B ) (7) Regra de aprendizado Passeio Aleatório w A/B i (t + 1) = w A/B i (t) + x i Θ(y A/B o A/B i )Θ(y A y B ) (8) Onde Θ é a função degrau, Θ(x) = 1 + sgn(x) 2 0, x < 0 1 = 2, x = 0 1, x > 0 (9) dessa forma, apenas são atualizadas as unidades onde o i = y A/B quando y A = y B. Essa restrição na atualização dos pesos é especialmente útil, já que torna impossível saber quais pesos foram atualizados sem conhecer os seus valores na camada oculta [Firmino Filho 2009]. Os passos da sincronização devem ser repetidos até que as duas redes estejam sincronizadas. As redes são consideradas sincronizadas quando para cada peso w A i das K unidades ocultas de A e o peso correspondente w B i em B tem-se que w A i = w B i. Porém, como as TPM A e B possuem pesos secretos, essa comunicação não é possível. Como alternativa para a detecção de sincronização entre as redes, é proposto que seja feito um teste cifrando uma mensagem pré-determinada com um algoritmo criptográfico usando como chave o estado dos pesos de A e B e comparando-os, de forma que se a mensagem cifrada m A seja igual à m B, então A e B estão sincronizados. Para reduzir os custos de processamento desse algoritmo, acrescenta-se a regra de que o teste de sincronização deve ser executado apenas caso a condição y A = y B tenha ocorrido nos últimos M passos. O processo de sincronização é baseado na competição entre forças aleatórias atrativas e repulsivas. Um passo atrativo ocorre quando y A = o A i = o B i = y B, situação onde os pesos de ambas as redes são atualizados. Com os pesos das redes
7 entre L e +L, a distância d i = wi A wi B não será modificada, exceto caso o valor de um dos pesos ultrapasse L, caso em que é atribuido ao mesmo o valor limitante, o que faz com que a distância d i diminua, até que d i = 0 [Firmino Filho 2009]. Um passo repulsivo ocorre quando y A = y B mas o A i o B i. Nessa situação apenas um dos pesos é atualizado, o que aumenta a distância d i = wi A wi B. Para uma rede neural atacante, a probabilidade de passos repulsivos é sempre maior do que entre A e B [Ruttor 2007]. O principal problema para um atacante E é que a representação interna (o 1, o 2,..., o i ) de A e B lhe é desconhecida. Como as alterações nos pesos depende dos valores de o i, é importante para um ataque bem sucedido que o estado das unidades ocultas seja adivinhado corretamente. Ataques de força bruta são computacionalmente inviáveis contra o protocolo, pois para determinada TPM há (2L + 1) KN diferentes configurações possíveis de pesos. Há quatro principais formas de ataque; simples, geométrico, de maioria e o genético. No ataque simples, E treina uma terceira TPM com os vetores públicos x e com as saídas y A, que são transmitidas publicamente entre A e B. A TPM de E deve ter a mesma estrutura de A e B e inicia com pesos aleatórios [Ruttor 2007]. A rede neural de E é treinada por uma das seguintes equações: Regra de aprendizado de Hebb: Regra de aprendizado anti-hebb: w E i (t + 1) = w E i (t) + x i y E Θ(y A o E i )Θ(y A y B ) (10) w E i (t + 1) = w E i (t) x i o i Θ(y A o E i )Θ(y A y B ) (11) Regra de aprendizado Passeio Aleatório w E i (t + 1) = w E i (t) + x i Θ(y A o E i )Θ(y A y B ) (12) O ataque geométrico é similar ao ataque simples, porém a regra de aprendizado só é aplicada caso y E = y A = y B. Caso y E y A = y B, o atacante tentará corrigir sua representação interna para obter a mesma saída antes de atualizar seus pesos, trocando o valor de sua saída y E pelo valor da saída de um neurônio da camada oculta [Firmino Filho 2009]. No ataque de maioria, o atacante usa m TPMs para melhorar sua capacidade de predição. As m redes não inicializadas com pesos aleatórios e quando a saída de uma determinada rede yi E for diferente de y A/B, E tenta corrigir sua representação da mesma forma que o ataque geométrico. Após a correção, o atacante E seleciona a representação interna mais comum e esta será adotada por todas as redes na regra de aprendizagem [Firmino Filho 2009]. Para aumentar a eficiência e reduzir a correlação que surge entre as TPMs de E devido às atualizações idênticas, o atacante pode usar o ataque de maioria e o
8 ataque geométrico alternadamente [Ruttor 2007]. O ataque de maioria é o com maior taxa de sucesso contra a criptografia neural, e para aumentar a segurança contra esse protocolo foi proposto por [Ruttor 2007] o uso de queries, em que um algoritmo utiliza informações internas de uma das TPM para gerar vetores de entradas com maior probabilidade de ocorrência de passos atrativos entre os parceiros. O ataque genético é baseado em um algoritmo evolucionário. No ataque genético, E começa com apenas uma TPM, mas pode usar até m redes neurais. Quando y A = y B, o seguinte algoritmo é aplicado: m Caso E tenha até Tree Parity Machines, ele determina todas as 2 K 1 2 K 1 representações internas (o 1, o 2,..., o i ) que produzem a saída y A e os usa para atualizar os pesos de acordo com a regra de aprendizado. Assim E cria 2 K 1 variantes de cada TPM nesse passo de mutação [Ruttor 2007]. Caso E já tenha mais que E isso é obtido descartando todas as redes que predisseram menos que U saídas y A nos últimos V passos de aprendizagem em que y A = y B no passo de seleção. Como regra adicional, E mantém ao menos 20 TPMs. m TPMs, só as mais aptas devem ser mantidas. 2 K 1 Foram propostas duas melhorias ao algoritmo, sendo o uso de queries, por [Ruttor 2007], e o uso de transmissões errôneas, proposto por [Allam e Abbas 2010], em que as TPMs parceiras enviam suas saídas erroneamente com probabilidade baseada na distância estimada entre os pesos de A e B e a rede parceira tenta predizer o envio desta informação usando os mesmos cálculos. 5. Conclusões O protocolo foi implementado na linguagem Python para comprovar o funcionamento da técnica de criptografia neural. Com a implementação, pode-se observar o fenômeno de sincronização de redes neurais e validar algumas características do protocolo. Foi possível confirmar que, conforme verificado por Ruttor 2007 e Firmino Filho 2009, o tempo de sincronização das redes neurais aumenta exponencialmente com o aumento de L. Foram utilizadas duas redes neurais Tree Parity Machine utilizando a regra de aprendizado de Hebb e configuradas com K = 4, N = 4 e L variável para obter a média do tempo de sincronização e sua variação com L. Os resultados obtidos encontram-se na figura 4, onde pode-se observar um crescimento polinomial no número de mensagens trocadas para atingir a sincronização com o aumento de L. Mantendo o valor L = 3, N = 4 e variando o parametro K, obtemos os tempos de sincronização exibidos na figura 5, onde podemos observar que o aumento no número de mensagens trocadas para a sincronização não aumenta consideravelmente com o aumento de K, porém, o tempo de processamento gasto aumenta proporcionalmente. Temos que, após cada sincronização bem sucedida entre TPMs, obtemos uma matriz de pesos de tamanho K N, exemplificada na figura 6. É possível, dentre outras formas, utilizar a matriz como chave criptográfica concatenando os valores e aplicando um algoritmo de hash, como o SHA-256, para gerar imediatamente uma chave de 256 bits válida para um algoritmo criptográfico simétrico, como o AES.
9 Figura 4. Número de mensagens trocadas até a sincronização, com L variável. Fonte: próprio autor Figura 5. Número de mensagens trocadas e tempo de CPU até a sincronização, com K variável. Fonte: próprio autor Foram efetuados testes de sincronização via rede usando TPMs configuradas com K = 4, N = 4 e L = 3, onde foi verificado que as redes neurais sincronizaram com sucesso, com M = 5, gerando uma matriz de pesos similar à da figura 6 idênticas nas TPMs A e B. A criptografia neural é uma alternativa ao problema de troca de chaves. Consiste de um algoritmo simples e precisa de um número baixo de cálculos para gerar chaves [Kanter et al. 2002], que torna as implementações do protocolo vantajosas em situações com recursos computacionais limitados. Também não possui algumas das desvantagens encontradas em outras técnicas, como a troca de chave com antecedência, que é logísticamente inviável e não depende exclusivamente de uma máquina mestre com acesso a todas as informações, como na abordagem do uso de um terceiro confiável. Estudos adicionais serão feitos para comparar a performance do algoritmo de criptografia neural com a encontrada no algoritmo de criptografia pública RSA para validar a velocidade do protocolo proposto. Também serão feitas análises mais detalhadas da segurança do protocolo implementado, comparando-o com a criptografia de chave pública e o protocolo Diffie-Hellman.
10 Figura 6. Número de mensagens trocadas até a sincronização, com K variável. Fonte: próprio autor Referências Allam, A. M. e Abbas, H. M. (2010). On the improvement of neural cryptography using erroneous transmitted information with error prediction. Trans. Neur. Netw., 21: Braga, A., Carvalho, A., e Ludermir, T. (2007). Redes Neurais Artificiais: Teoria e Aplicações. LTC, 2nd edition. Burnett, S. e Paine, S. (2001). The RSA Security s Official Guide to Cryptography. Osborne/McGraw-Hill, Berkeley, CA, USA. Firmino Filho, J. (2009). Implementação e análise de desempenho dos protocolos de criptografia neural e diffie-hellman em sistemas rfid utilizando uma plataforma embarcada. Universidade Federal do Rio Grande do Norte, page 61. Haykin, S. (1999). Neural networks: a comprehensive foundation. Prentice Hall. Kanter, I., Kinzel, W., e Kanter, E. (2002). Secure exchange of information by synchronization of neural networks. Europhysics Letters, 57(1):11. Kinzel, W. e Kanter, I. (2002). Neural cryptography. In in Proc. of the 9th International Conference on Neural Information Processing, pages Prabakaran, N. e P., V. (2010). A new security on neural cryptography with queries. Int. J. of Advanced Networking and Applications, pages Russell, S. e Norvig, P. (2010). Artificial intelligence: a modern approach. Prentice Hall series in artificial intelligence. Prentice Hall, 3rd edition. Ruttor, A. (2007). Neural synchronization and cryptography. arxiv, page 120. Terada, R. (2008). Segurança de Dados: Criptografia em Rede de Computador. Edgard Blucher, 2nd edition.
REDES NEURAIS ARTIFICIAIS
REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em
Leia maisVirtual Private Network (VPN)
Virtual Private Network (VPN) Daniel Gurgel CCNP CCDP CCIP RHCE gurgel@secrel.net.br Introdução a VPN Networks Provem conexão segura na Internet com usuários e escritórios remotos. Depois de conectados,
Leia maisserotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina
Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
Leia maisRedes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com
Leia maisAutor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com
Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial
Leia mais3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
Leia maisNeural Networks. Neurônios: Elementos aritméticos simples. Redes Neuronais: conj de neurônios interligados.
Neural Networks Neural Networks Do ponto de vista computacional: métodos para representar funções usando redes de elementos aritméticos simples, e aprender tais representações através de exemplos. Do ponto
Leia maisRegra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem
Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja
Leia maisIntrodução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana
Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)
Leia maisAula 1 Introdução - RNA
Aula 1 Introdução - RNA Sumário 1- Conceitos Iniciais; 2- Neurônio Biológico; 3- Neurônio Artificial; 4- Funções de Ativação; 5- Comparação Neurônio Biológico e Artificial. 1- Conceitos Iniciais - Computadores
Leia maisTópicos Especiais: Inteligência Artificial REDES NEURAIS
Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig
Leia maisPLANO DE DISCIPLINA DISCIPLINA: Segurança da Informação
UNIVERSIDADE FEDERAL DE UBERLÂNDIA FACULDADE DE COMPUTAÇÃO BACHARELADO EM CIÊNCIA DA COMPUTAÇÃO PLANO DE DISCIPLINA DISCIPLINA: Segurança da Informação ( X ) SEMESTRAL - ( ) ANUAL CÓDIGO: GBC083 PERÍODO:
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.1. Introdução às Redes Neurais Artificiais (RNAs) 2.1.1. Motivação
Leia maisTÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador
Leia maisRedes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas
Redes Neurais Dalma M. Falcão falcao@nacad.ufr.br http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs
Leia maisRede Perceptron. Capítulo 3
Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta
Leia mais3 INTELIGÊNCIA COMPUTACIONAL (IC)
40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por
Leia maisA evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:
Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis
Leia maisSegurança da Informação Aula 6 Principais Algoritmos Simétricos. Criptografia Assimétrica.
Segurança da Informação Aula 6 Principais Algoritmos Simétricos. Criptografia Assimétrica. Prof. Dr. Eng. Fred Sauer fsauer@gmail.com http://www.fredsauer.com.br Alguns cifradores simétricos: DES, 3DES
Leia maisRedes Neurais Noções Gerais
Redes Neurais Noções Gerais Segundo Loesch (apupt Fernandes), Redes Neurais Artificiais são sistemas computacionais, de implementação em hardware e software, que imitam as habilidades computacionais do
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas
Leia maisRECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ
RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional
Leia maisConfigurando perfis IPSec (auto modo fechando) no RV160 e no RV260
Configurando perfis IPSec (auto modo fechando) no RV160 e no RV260 Objetivo Introdução Este documento demonstrará como criar um perfil novo da segurança de protocolo do Internet (IPsec) usando o auto modo
Leia maisPRINCÍPIOS DE NEUROCOMPUTAÇÃO
PRINCÍPIOS DE NEUROCOMPUTAÇÃO Neurocomputação Funcionamento do cérebro humano e os neurônios Formação das conexões e como se concebe teoricamente a aquisição do conhecimento, formalizando-os em procedimentos
Leia maisAULA 5: Criptografia e Esteganografia
AULA 5: Criptografia e Esteganografia Criptografia A forma mais utilizada para prover a segurança em pontos vulneráveis de uma rede de computadores é a utilização da criptografia. A criptografia é utilizada
Leia maisInteligência Computacional
Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Na Aula Passada... O que é uma
Leia maisConfigurar um perfil da segurança de protocolo do Internet (IPSec) em um roteador do RV34x Series
Configurar um perfil da segurança de protocolo do Internet (IPSec) em um roteador do RV34x Series Objetivo A segurança de protocolo do Internet (IPSec) fornece túneis seguros entre dois pares, tais como
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Neurônio Natural Dendritos: recebe os estímulos transmitidos por outros neurônios Soma Sinapse Axônio Soma: coleta e combina informações vindas de outros neurônios Sinapse Dendrito
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia maisClassificação de Padrões. Abordagem prática com Redes Neurais Artificiais
Classificação de Padrões Abordagem prática com Redes Neurais Artificiais Agenda Parte I - Introdução ao aprendizado de máquina Parte II - Teoria RNA Parte III - Prática RNA Parte IV - Lições aprendidas
Leia maisRedes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
Leia maisINTELIGÊNCIA ARTIFICIAL
INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos
Leia maisFelix da Cunha 412, Pelotas RS Home-Page: s: Bolsista BIC/FAPERGS
UTILIZAÇÃO DE REDES NEURAIS PARA PREVISÕES EM SÉRIES TEMPORAIS 1 A. T. Gonçalez, A. C. R. Costa, G. P. Dimuro UCPEL Universidade Católica de Pelotas, ESIN Escola de Informática GMFC Grupo de Matemática
Leia maisRedes de múltiplas camadas na geração de chaves criptográficas de sessão
Redes de múltiplas camadas na geração de chaves criptográficas de sessão Eduardo Gomes de Barros, José Demísio Simões da Silva Instituto Nacional de Pesquisas Espaciais eduardogbarros@hotmail.com, demisio@lac.inpe.br
Leia maisAprendizado de Máquinas. Multi-Layer Perceptron (MLP)
Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.
Leia maisSegurança e Auditoria de Sistemas. Confiança Mútua Assinatura Digital Certificado Digital
Segurança e Auditoria de Sistemas Confiança Mútua Assinatura Digital Certificado Digital Motivação O que acontece quando uma informação vem de uma origem não confiável? Qual a importância da autenticidade
Leia maisClassificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
Leia maisRECONHECIMENTO DE CARACTERES EM PLACAS AUTOMOTIVAS UTILIZANDO REDES NEURAIS
RECONHECIMENTO DE CARACTERES EM PLACAS AUTOMOTIVAS UTILIZANDO REDES NEURAIS Eduarda Gonçalves Dias 1 ; Wanderson Rigo 2 ; Manassés Ribeiro 3 INTRODUÇÃO Os sistemas de visão artificial vêm auxiliando o
Leia maisUTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS NO RECONHECIMENTO DE PADRÕES EM PACOTES DE DADOS TCP/IP
UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS NO RECONHECIMENTO DE PADRÕES EM PACOTES DE DADOS TCP/IP USING OF ARTIFICIAL NEURAL NETWORKS IN PATTERN RECOGNITION IN TCP/IP DATA PACKETS PERES, Cassiano Ricardo
Leia maisCriptografia Simétrica e Assimétrica, Hash, e Assinatura Digital
Criptografia Simétrica e Assimétrica, Hash, e Assinatura Digital Segurança da Informação Charles Tim Batista Garrocho Instituto Federal de São Paulo IFSP Campus Campos do Jordão garrocho.ifspcjo.edu.br/sega6
Leia maisPós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO
Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO AULA 8 Redes Neurais Introdução As redes neurais são um tema da computação altamente inspirada na natureza que nos
Leia maisCOMPARAÇÃO ENTRE DIFERENTES ESTRUTURAS DE REDES NEURAIS NO PROBLEMA PRESA-PREDADOR 1
COMPARAÇÃO ENTRE DIFERENTES ESTRUTURAS DE REDES NEURAIS NO PROBLEMA PRESA-PREDADOR 1 Márcia Da Silva 2, Eldair Fabricio Dornelles 3, Rogério S. M. Martins 4, Édson L. Padoin 5. 1 Pesquisa desenvolvida
Leia maisPTC Aula 19. (Kurose, p ) (Peterson, p ) 09/06/ O que é segurança de rede? 5.2 Princípios de criptografia
PTC 2550 - Aula 19 5.1 O que é segurança de rede? 5.2 Princípios de criptografia (Kurose, p. 587-626) (Peterson, p. 444-454) 09/06/2017 Muitos slides adaptados com autorização de J.F Kurose and K.W. Ross,
Leia maisSCC Capítulo 3 Aprendizado
Aprendizado Supervisionado Não Supervisionado Tarefas SCC-5809 - Capítulo 3 Aprendizado João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2012 João Luís G. Rosa c 2012 - SCC-5809: Redes Neurais
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Mapas Auto-Organizáveis Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Aplicações em Telecomunicações Prof. João Marcos Meirelles da Silva, D.Sc. Professor Adjunto II do Departamento de Engenharia de Telecomunicações Universidade Federal Fluminense
Leia maisMineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior
Aula 2 Introdução Redes Neurais Prof. Dr. Sylvio Barbon Junior barbon@uel.br Sumário 1- Inteligência Artificial 2- Introdução às Redes Neurais Artificiais 3- Modelos de Redes Neurais supervisionados e
Leia maisAjustes da política do Virtual Private Network (VPN) em RV120W e em RV220W
Ajustes da política do Virtual Private Network (VPN) em RV120W e em RV220W Objetivo O Virtual Private Network (VPN) fornece uma conexão remota sobre uma distância física possivelmente longa. O VPN é um
Leia maisSCC Capítulo 2 Topologia e Representação
Modelos Arquiteturas Representação do Conhecimento SCC-5809 - Capítulo 2 Topologia e Representação João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809:
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support
Leia maisIntrodução a Redes Neurais Artificiais com a biblioteca Encog em Java
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -
Leia maisCapítulo 8. Segurança de redes
Capítulo 8 Segurança de redes slide 1 Segurança de redes Algumas pessoas que causam problemas de segurança e motivação. slide 2 slide 3 Criptografia Introdução Cifras de substituição Cifras de transposição
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer
Leia mais3 REDES CLÁSSICAS PERCEPTRON E ADALINE
w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados
Leia maisProf. M.Sc. Charles Christian Miers
TES16/TOCC20 - Introdução à Segurança da Informação Módulo 06: Autenticidade e Resumos Prof. M.Sc. Charles Christian Miers e-mail: charles@joinville.udesc.br Problema Comunicações em Redes de Computadores
Leia maisAprendizado de Máquina
Aprendizado de Máquina Principais tópicos Aprendizado profundo André C P L F de Carvalho Posdoutorando: Isvani Frias-Blanco ICMC-USP Introdução Redes profundas Aprendizado profundo Redes autodecodificadoras
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
Leia maisRedes Neurais Artificiais
Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais
Leia maisConfigurar Virtual Private Network (VPN) avançado Setup no Firewall RV110W
Configurar Virtual Private Network (VPN) avançado Setup no Firewall RV110W Objetivo O Virtual Private Network (VPN) usa a rede pública, ou o Internet, para estabelecer uma rede privada para comunicar-se
Leia maisRedes Neurais Artificiais
Universidade Federal do Espírito Santo CCENS UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais
Leia maisResolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís
Resolução da Prova 1 SCC-5809 - Redes Neurais 2o. Semestre de 2011 - Prof. João Luís RESOLUÇÃO (2) 1. A figura abaixo mostra uma rede neural com um único neurônio escondido. Mostre que essa rede resolve
Leia maisPrimeiras Redes Neurais Artificiais: Perceptron e Adaline
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor
Leia maisMinicurso: Inteligência Artificial Aplicada a Sistemas Elétricos
Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz
Leia maisInteligência Artificial Redes Neurais
Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais x 1 w k1 Bias b k +1 +1 x 1 x 2 x 3 x m +1 y 1 y 2 y o Sinais de entrada x 2 x m Fabricio Breve fabricio@rc.unesp.br w k2 w km Pesos sinápticos Σ Junção aditiva v k f(. ) Saída
Leia maisEET-61 Introdução a Teoria da Informação
EET-61 Introdução a Teoria da Informação Aula 3- Codificação de Canal October 24, 2018 1 Introdução Em muitas situações, a mensagem a ser transmitida por um sistema de comunicações é uma sequência de bits.
Leia maisApresentação: André Luiz Marasca
Apresentação: André Luiz Marasca 2 Ao enviar uma carta para alguém, espera-se que esta pessoa seja a única a ler. Mas durante o percurso, muitos curiosos podem querer ler esta carta. Por isso, mensagens
Leia maisRede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Leia maisRedes Neurais INTELIGÊNCIA ARTIFICIAL
Redes Neurais INTELIGÊNCIA ARTIFICIAL 1 2 Introdução As redes neurais são um tema da computação altamente inspirada na natureza que nos cerca. Durante anos e anos os homens trabalharam para fazer computadores
Leia maisNeurocomputação Parte 2
Neurocomputação Parte 2 Fabricio Breve - fbreve@gmail.com 25/09/2007 Fabricio Breve 1 REDES NEURAIS ARTIFICIAIS 25/09/2007 Fabricio Breve 2 Por que Redes Neurais? Computadores convencionais são eficientes
Leia maisMultiple Layer Perceptron
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Multiple Layer Perceptron David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Multiple Layer Perceptron (MLP) Backpropagation
Leia maisSegurança em Redes de Computadores
Segurança em Redes de Computadores Capítulo 6 Segurança IP Slides por H. Johnson & S. Malladi Modificados por S. J. Fritz, 2006 Modificados e traduzidos por P.S. Nicolletti, 2007 1 Resumo Necessidade de
Leia maisIntrodução às Redes Neurais Artificiais
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos
Leia maisRedes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas
Redes Neurais Pulsadas João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas Introdução Modelos de redes neurais podem ser classificados em gerações. Primeira Geração Neurônios de McCulloch-Pitts
Leia maisExercícios de Revisão Redes de Computadores Edgard Jamhour. SSL, VPN PPTP e IPsec
Exercícios de Revisão Redes de Computadores Edgard Jamhour SSL, VPN PPTP e IPsec Auxilio para as questões 1 e 2 Criptografia Assimétrica: (ou de chave Pública) - Usa chaves diferentes para criptografar
Leia mais6 Inserção Seletiva de Nulos
6 Inserção Seletiva de Nulos 6.1 Introdução Neste capítulo será apresentado o algoritmo ADDNULLS - Inserção Seletiva de Nulos. Este algoritmo usa a técnica da esteganografia para esconder os símbolos codificados
Leia maisUm Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid
1 Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid Luciana Conceição Dias Campos Resumo Este trabalho consiste da aplicação de um algoritmo genético ao método
Leia maisTópicos Especiais em Informática Fatec Indaiatuba
Criar máquinas capazes de operar independentemente do homem: Aprenda sozinha; Interagir com ambientes desconhecidos; Possa ser chamada de autônoma, inteligente ou cognitiva; Capacidade de lidar com eventos
Leia maisParadigmas de Aprendizagem
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia maisAlgoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.
CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado
Leia maisAuxilio a Resolução da Lista de Exercícios
Auxilio a Resolução da Lista de Exercícios Exercício 5 ALGORITIMO Criptografia Assimétrica Criptografia Simétrica CARACTERISTICAS Algoritmo de Chave Pública Duas chaves: chave privada e chave pública Segurança
Leia maisJAI 6 - Deep Learning Teoria e Prática
JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado
Leia maisAutenticação por par de. chaves assimétricas. Bruno Follmann
Autenticação por par de 1 chaves assimétricas Bruno Follmann 2 Criptografia assimétrica Criada em 1976 por Diffie e Hellman; Também chamada de criptografia de chave pública; Sistema para cifrar e decifrar
Leia maisAPRENDIZADO EM MODELOS CONEXIONISTAS
APRENDIZADO EM MODELOS CONEXIONISAS Aprendizado é o processo pelo qual os parâmetros (os pesos das coneões entre os neurônios) de uma rede neural são austados através de uma forma continuada de estímulo
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisEngloba os criptossistemas clássicos. Outros nomes: (Criptografia...)
Principal característica: utilização da mesma chave para cifrar/decifrar. Engloba os criptossistemas clássicos. Outros nomes: (Criptografia...) convencional de chave única de chave secreta Os procedimentos
Leia maisTÓPICOS ESPECIAIS EM SEGURANÇA DA INFORMAÇÃO
TÓPICOS ESPECIAIS EM SEGURANÇA DA INFORMAÇÃO AULA 2 CRIPTOGRAFIA AES PROF. MEHRAN MISAGHI 2 AULA 2 CRIPTOGRAFIA AES OBJETIVOS DA AULA Conhecer o histórico do cifrador AES; Compreender a arquitetura do
Leia mais