Redes Neurais Artificiais
|
|
|
- William Terra Fraga
- 10 Há anos
- Visualizações:
Transcrição
1 Redes Neurais Artificiais Inteligência Artificial Prof. Cedric Luiz de Carvalho Instituto de Informática UFG 2006
2 2/164 Tópicos Introdução Redes Neurais Humanas O que são Redes Neurais Artificiais Características das Redes Neurais Artificiais Perceptrons Perceptrons Multi Camadas Modelo de Hopfield
3 3/164 Motivação Criar máquinas capazes de operar independentemente do homem aprender sozinhas interagir com ambientes desconhecidos possa ser chamada de autônoma, inteligente ou cognitiva capacidade de lidar com eventos inesperados Obs.: cognição aquisição de um conhecimento
4 4/164 Utilidade Teriam maior capacidade de aprender tarefas de alto nível cognitivo que não são facilmente manipuladas por máquinas atuais Seriam úteis onde a presença humana é perigosa, tediosa ou impossível, como em: reatores nucleares combate ao fogo operações militares exploração ao espaço...
5 5/164 Redes Neurais Artificiais (RNA) Investigam aspectos naturais e adaptativos do sistema cognitivo Aprendem a reconhecer padrões de informações estabelecidos no meio ambiente Abordagem bottom-up: a partir de elementos básicos busca o entendimento de conceitos gerais
6 6/164 Ciências Cognitivas Epistemologia Psicologia Lingüística Ciência da Computação Ciências Sociais Neurobiologia
7 7/164 Cérebro humano Mais fascinante processador baseado em carbono O neurônio é um célula no cérebro cuja principal função é colecionar, processar e disseminar sinais elétricos 10 bilhões de neurônios todos movimentos do organismo são conectados através de sinapses processam e armazenam informações
8 8/164 Redes neurais naturais O sistema nervoso é formado por um conjunto extremamente complexo de células, os neurônios O cérebro humano possui cerca de neurônios e mais de sinapses, possibilitando a formação de redes muito complexas
9 9/164 Redes neurais naturais Neurônios têm papel essencial na determinação do funcionamento e comportamento do corpo humano e do raciocínio
10 10/164 Neurônios naturais Neurônios são formados: pelos dendritos, que são um conjunto de terminais de entrada recebem estímulos pelo corpo central (soma) coleta, combina e processa informações pelos axônios que são longos terminais de saída transmitem os estímulos Neurônios se comunicam através de sinapses
11 Neurônios naturais 11/164
12 12/164 Neurônios naturais: Sinapse É o contato entre dois neurônios através da qual os impulsos nervosos são transmitidos entre eles Os impulsos recebidos por um neurônio são processados e, atingindo um limiar de ação, dispara, produzindo uma substância neurotransmissora que flui para o axônio, que pode estar conectado a um dendrito de outro neurônio
13 13/164 Neurônios naturais: Sinapse O neurotransmissor pode diminuir ou aumentar a polaridade da membrana pós-sináptica, inibindo ou excitando a geração dos pulsos no outro neurônio Este processo depende de fatores como geometria da sinapse e o tipo de neurotransmissor
14 14/164 Neurônios naturais Constatação que o cérebro processa informações de forma diferente dos computadores convencionais Cérebro velocidade 1 milhão de vezes mais lenta processamento altamente paralelo neurônios com 10 4 conexões cada Computador processamento extremamente rápido e preciso na execução de sequência de instruções
15 15/164 Problema dos 100 Passos Neurônio: 2ms Processador: 2ns Processador é 10 6 mais rápido que o neurônio Cérebro reage a um estímulo entre 0,2 e 1 segundo Cérebro responde em 100 passos
16 16/164 Neurônios naturais O cérebro tem 10 bilhões de neurônios Cada neurônio tem a conexões 60 trilhões de conexões sinapses Cada pessoa pode dedicar conexões para armazenar cada segundo de experiência 65 anos de segundos Durante os 2 primeiros anos de vida, de sinapses são formadas por segundo
17 17/164 Cérebro X Computador Parâmetro Cérebro Computador Material Orgânico Metal e plástico Velocidade Milisegundos Nanosegundos Tipo de Processamento Paralelo Seqüencial Armazenamento Adaptativo Estático Controle de Processos Distribuído Centralizado Número de elementos processados 10 e 11 à 10 e e 5 à 10 e 6 Ligações entre elementos processados <10
18 18/164 Computador X RNAs Computadores Neurocomputadores Executa programas Aprende Executa operações lógicas Executa operações não lógicas, transformações, comparações Depende do modelo ou do programador Descobre as relações ou regras dos dados e exemplos Testa uma hipótese por vez Testa todas as possibilidades em paralelo
19 19/164 Redes Neurais Artificiais (RNAs) RNAs são técnicas computacionais que apresentam um modelo matemático inspirado na estrutura neural de organismos inteligentes e que adquirem conhecimento através da experiência Método de solucionar problemas de IA, que utiliza um sistema que possui circuitos que simulam o cérebro humano, inclusive seu comportamento, ou seja, aprendendo, errando e fazendo descobertas Uma grande RNA pode ter centenas ou milhares de unidades de processamento
20 20/164 Redes Neurais Artificiais (RNAs) Redes Neurais Artificiais são sistemas inspirados nos neurônios biológicos e na estrutura massivamente paralela do cérebro, com capacidade de adquirir, armazenar e utilizar conhecimento experimental Devido à similaridade com a estrutura do cérebro, as Redes Neurais exibem características similares ao do comportamento humano, tais como:
21 21/164 Redes Neurais Artificiais (RNAs) Procura Paralela e Endereçamento pelo Conteúdo o cérebro não possui endereço de memória e não procura a informação seqüencialmente Aprendizado a rede aprende por experiência, não necessitando explicitar os algoritmos para executar uma determinada tarefa
22 22/164 Redes Neurais Artificiais (RNAs) Associação a rede é capaz de fazer associações entre padrões diferentes. Ex. Pessoa Nome Perfume Pessoa Generalização são capazes de generalizar o seu conhecimento a partir de exemplos anteriores
23 23/164 Redes Neurais Artificiais (RNAs) Abstração capacidade de abstrair a essência de um conjunto de entradas, isto é, a partir de padrões ruidosos, extrair a informação do padrão sem ruído Robustez e Degradação Gradual a perda de um conjunto de elementos processadores não causa o mal funcionamento da rede neural
24 24/164 O que as RNAs não são RNN não são circuitos digitais o modelo MCP usava sinais binários, o neurônio biológico expressa sua ativação pela freqüência que emite pulsos e esta freqüência tem uma variação contínua entre dois valores positivos RNN não podem ter excitação negativa alguns modelos usam valores de excitação negativa
25 25/164 O que as RNAs não são RNN não são homogêneas as RNN não possuem todos os seus neurônios de mesmo tipo como nas RNA, apenas em algumas regiões existe uma certa uniformidade no tipo de neurônios RNN não são circuitos síncronos ou assíncronos as RNN são sistemas de tempo contínuo, logo não cabe a classificação de síncrono ou assíncrono
26 26/164 O que as RNAs não são Nem neurônios nem sinapses tem dois valores Circuitos cerebrais não são capazes de cálculos recursivos isto é conseqüência dos neurônios não serem sistemas discretos, levando a rede a não ser um autômato logo, equivalência com problemas solúveis por funções recursivas não tem sentido biológico entretanto, os neurônios das RNAs são capazes de resolver funções recursivas
27 27/164 Fases da história da IA Época pré-histórica nesta época nada se conhecia sobre os mecanismos da mente, nem sob o prisma fisiológico nem psicológico e por esta razão vai até 1875 quando Camillo Golgi visualizou o neurônio Época Antiga ( ) época em que a Lógica formal apareceu (Russel, etc)
28 28/164 Fases da história da IA Época Romântica ( ) o otimismo desordenado, tal um jovem rapaz romântico, crê que tudo é possível acaba com a reunião no Darthmouth College Época Barroca ( ) tudo é fácil e será conseguido fracasso do projeto de tradução automática de línguas pelo MIT devido a dimensionalidade inglês-russo o livro Perceptrons mostra que nem tudo é possível
29 29/164 Fases da história da IA Época das Trevas ( ) paralisação de quase todas as pesquisas em IA por falta de verbas Renascimento ( ) começou a corrida para IA os resultados obtidos nas épocas anteriores atingiram o público em geral sistemas especialistas se popularizaram Época Contemporânea ( atual) logo no início do período Gallant publica seu célebre artigo sobre sistemas especialistas conexionistas foi o ponto de partida para a união das duas abordagens de IA
30 30/164 Acontecimentos 1943 Primeiras informações da neuro computação (McCulloch e Pitts) Psychon Exitação / Inibição - Sem aprendizado Regra de Hebb - D. O. Hebb Aprendizado / Adaptação 1951 Snark, por Mavin Minsky operava com sucesso mas, não executava funções de processamento interessantes, porém serviu de inspiração
31 31/164 Acontecimentos 1956 Darthmouth College surgiram os paradigmas da Inteligência Artificial: simbólica: simular o comportamento humano desconsiderando os mecanismos responsáveis conexionista: simular a estrutura cerebral, acreditando-se que seria capaz de apresentar inteligência
32 32/164 Acontecimentos 1957 Mark I Perceptron, por Frank Rosenblatt, Charles Wightman e outros interesse: reconhecimento de padrões Bernard Widrow desenvolveu um novo tipo de processamento de redes neurais: ADALINE grande capacidade de aprendizado valores discretos / binários / Regra Delta Perceptron - Frank Rosenblatt valores contínuos Madaline - Bernard Widrow combinando Adalines / Combinação manual
33 33/164 Acontecimentos Problema do XOR - Minsky & Papert (Livro Perceptrons ) Década perdida Campo de pesquisas explodiu: Palallel Distributede Processing Modelo de Hopfield Redes recorrentes - Memórias Auto-Associativas
34 34/164 Acontecimentos MLP Back-Propagation - Rumelhart, Hinton & Willians (Multi-nível) 1987 Primeira conferência de redes neurais década das aplicações Jogos, Robótica, Visão, Reconhecimento de Imagens e Padrões (OCR, Digitais, Assinaturas), Reconhecimento de Voz (Comandos e Fonemas), Previsão de séries temporais (Ações, tempo, consumo, etc) revendo conceitos e limitações propondo novos modelos
35 35/164 O Modelo MCP (McCulloch e Pitts) Uma RNA é composta por várias unidades de processamento (nós), cujo funcionamento é bastante simples Essas unidades geralmente são ligadas por conexões (links) que estão associados a um determinado peso As unidades fazem operações apenas sobre seus dados locais, que são entradas recebidas pelas suas conexões O comportamento inteligente de uma RNA vem das interações entre as unidades de processamento da rede
36 36/164 O Modelo MCP Uma ligação de uma unidade j para unidade i serve para propagar a ativação a j de j para i Cada ligação possui um peso w j,i associado, que determinar a força e o sinal da conexão Cada unidade i primeiro computa a soma dos pesos de suas entradas: n in = i j= 0 W j,i a j
37 O Modelo MCP Função de ativação 37/164 Então se aplica uma função de ativação g nesta soma para derivar a saída: a i =g in i =g j=0 n W j,i a j Se este nível de atividade exceder um certo limite ou limiar (threshold) a unidade produz uma determinada resposta de saída a i θ
38 O Modelo MCP Operação de uma unidade de processamento 38/164 s = Σ w i X i y = 1, se s > t y = 0, se s t Sinais de entrada pesos
39 O Modelo MCP Função de ativação 39/164 Este modelo foi simplificado os nós em cada camada da rede disparam sincronicamente as entradas em um instante t produzem a sua saída no tempo t+1 diferente do biológico, onde não existe sincronismo e nem ativação em tempo discreto Além disso, possuem outras limitações com apenas uma camada só conseguem implementar funções linearmente separáveis pesos fixos, não ajustáveis, não há aprendizado
40 40/164 Características das RNAs x 1 x 2 x n... w 1 w 2... w n S= w i x i +bias S Entradas (Dentritos) Pesos Sinápticos (Efeito de inibição ou de excitação sobre a ativação dos sinais de entrada) Ativação (Considera o conjunto total das entradas e dos seus pesos associados) Função de Ativação (Regulagem da saída da rede) Saída (Axônio: Conexões com as Sinapses de outras unidades)
41 41/164 Função de ativação A função de ativação é projetada com dois desejos a unidade deve ser ativa (perto de 1+) quando a entrada correta for dada e inativa (perto de 0) quando uma saída errada é dada a ativação necessita ser não linear, caso contrário a rede neural completa desmoronaria em uma simples função linear Escolha para a função de ativação g são mostradas a seguir:
42 Função de ativação Função linear 42/164 g(in i ) in i g(in i ) = in i
43 Função de ativação Função limiar (threshold) 43/164 g(in i ) +1 θ g(in i ) = in i 1, se in i θ 0, se in i < θ
44 44/164 Função de ativação Função sigmoidal logística (bipolar) g(in i ) 1 g(in i ) = 1/(1 + e - λu(t) ) in i Função de limiar diferenciável
45 45/164 Exemplo de funcionamento
46 46/164 Características das RNAs O comportamento inteligente vem das interações entre as unidade de processamento da rede Elas aprendem através de exemplos Processo de treinamento a partir dos casos reais Capaz de extrair regras básicas a partir de dados reais, diferindo da computação programada
47 47/164 Aprendizagem Ajustes de seus pesos Aprendizado ocorre quando atinge uma solução generalizada para uma classe de problemas 50 a 90% do total de dados são escolhidos aleatoriamente afim que a rede aprenda o restante só é apresentado na fase de testes
48 Processamento Neural 48/164 O processamento de uma Rede Neural pode ser dividido em duas fases: processo de cálculo da saída da rede, dado um certo padrão de entrada Recuperação da Informação processo de atualização dos pesos sinápticos para a aquisição do conhecimento Aquisição da Informação
49 49/164 Aprendizagem das RNAs A maioria dos modelos de redes neurais possui alguma regra de treinamento onde os pesos de suas conexões são ajustados de acordo com os padrões apresentados elas aprendem através de exemplos
50 50/164 Formas de aprendizado: RNAs Aprendizagem supervisionada a saída desejada é conhecida e informada para que a rede compare com a saída processada se houver erro, a rede tenta corrigir este erro até que a mesma forneça uma saída igual a saída desejada
51 51/164 Formas de aprendizado: RNAs Aprendizagem não supervisionada a saída desejada é obtida através de entradas repetitivas até a rede reter o conhecimento não existe saída informada para comparação deve existir redundâncias nos dados para a rede encontrar padrões ou características dos dados
52 52/164 Exemplo: Aprendizagem Implementação da porta lógica AND Certificar-se de que todas as respostas estão corretas para cada conjunto de entradas pela tabela-verdade A RNA possui um único neurônio de duas entradas e uma saída Tabela Verdade - AND Entrada 1 Entrada 2 Saída Σ T Σ T Σ T Σ T 1
53 53/164 Exemplo: Aprendizagem Implementação da porta lógica AND Para treinar a rede vamos seguir alguns passos: para as entradas [1, 1] pesos iniciais [0, 0] Σ T θ= 0,5 Função Soma n i 1 x i w i θ y = 1, se s > θ y = 0, se s θ limiar
54 limiar 54/164 Exemplo: Aprendizagem Implementação da porta lógica AND Para treinar a rede vamos seguir alguns passos: Passo 1: Aplicar a função Soma n i 1 x i w i θ Soma = 1*0 + 1*0 = 0 Passo 2: Aplicar a função de Transferência Soma 0,5 y = 0 Soma > 0,5 y = 1 Transferido 0 para a saída. Erro!!!!! θ= 0,5 Função Soma n i 1 1 x i w i θ Σ T y = 1, se s > θ y = 0, se s θ
55 55/164 Exemplo: Aprendizagem Implementação da porta lógica AND Passo 3: Ajuste do peso Equação do erro: E = S d - S o onde S d é a saída desejada S o é a saída obtida Fator de correção: F = c*x*e onde c = 0,5 (constante) x é a entrada E é o erro Equação do ajuste: w novo = w + F
56 56/164 Exemplo: Aprendizagem Implementação da porta lógica AND Passo 3: Ajuste do peso Calcular o erro: E = 1-0 = 1 Calcular o fator de correção: F 1 = c*e*x 1 F 1 = 0,5*1*1 F 1 = 0,5 Calcular o novo peso: F 2 = c*e*x 2 F 2 = 0,5*1*1 F 2 = 0,5 Equação do erro: E = S d - S o onde S d é a saída desejada S o é a saída obtida Fator de correção: F = c*x*e onde c = 0,5 (constante) x é a entrada E é o erro w 1novo = w 1 + F 1 w 1novo = 0 + 0,5 w 1novo = 0,5 w 2novo = w 1 + F 2 w 2novo = 0 + 0,5 w 2novo = 0,5 Equação do ajuste: w novo = w + F
57 57/164 Exemplo: Aprendizagem Implementação da porta lógica AND Para treinar a rede vamos seguir alguns passos: para as entradas [1, 1]... pesos iniciais [0,5, 0,5] Passo 1: Aplicar a função Soma Soma = 1*0,5 + 1*0,5 = 1 Passo 2: Aplicar a função de Transferência Soma 0,5 y = 0 Soma > 0,5 y = 1 Transferido 1 para a saída. Correto!!!!! Σ T 1 0.5
58 58/164 EXERCÍCIO: Aprendizagem Implementação da porta lógica AND EXERCÍCIO Continuar treinando a rede para as entradas [0, 0] e pesos [0,5, 0,5] Testar a rede Para as entradas [0, 1] e [1, 0]
59 59/164 EXERCÍCIO: Aprendizagem Implementação da porta lógica AND Para treinar a rede vamos seguir alguns passos: para as entradas [0, 0] e pesos [0,5, 0,5] Passo 1: Aplicar a função Soma Soma = 0*0,5 + 0*0,5 = 0 Passo 2: Aplicar a função de Transferência Soma 0,5 y = 0 Soma > 0,5 y = 1 Transferido 0 para a saída. Correto!!!!! 0 0 Σ T 0
60 60/164 EXERCÍCIO: Aprendizagem Implementação da porta lógica AND Testar a rede: para as entradas [0, 1] e pesos [0,5, 0,5] Passo 1: Aplicar a função Soma Soma = 0*0,5 + 1*0,5 = 0,5 Passo 2: Aplicar a função de Transferência Soma 0,5 y = 0 Soma > 0,5 y = 1 Transferido 0 para a saída. Correto!!!!! 0 1 Σ T 0
61 61/164 EXERCÍCIO: Aprendizagem Implementação da porta lógica AND Testar a rede: para as entradas [1, 0] e pesos [0,5, 0,5] Passo 1: Aplicar a função Soma Soma = 1*0,5 + 0*0,5 = 0,5 Passo 2: Aplicar a função de Transferência Soma 0,5 y = 0 Soma > 0,5 y = 1 Transferido 0 para a saída. Correto!!!!! 1 0 Σ T 0
62 62/164 Arquiteturas de RNA Arquiteturas neurais são tipicamente organizadas em camadas, com unidades que podem estar conectadas às unidades da camada posterior
63 63/164 Arquiteturas de RNA Usualmente as camadas são classificadas em três grupos: Camada de Entrada: onde os padrões são apresentados à rede Camadas Intermediárias ou Escondidas: onde é feita a maior parte do processamento, através das conexões ponderadas podem ser consideradas como extratoras de características Camada de Saída: onde o resultado final é concluído e apresentado
64 64/164 Arquiteturas de RNA Número de camadas redes de camada única só existe um nó entre qualquer entrada e qualquer saída da rede X 1 X 1 X 2 X 2 X 3
65 65/164 Arquiteturas de RNA Número de camadas redes de múltiplas camadas existe mais de um neurônio entre alguma entrada e alguma saída da rede X 1 X 2 X 1 X 3 X 2 X 3 X 6 X 4 X 5 X 4 X 7 X 6 X 1 X 5 X 2 X 4 X 5
66 66/164 Arquiteturas de RNA Tipos de conexões dos nós feedforward ou acíclica a saída do neurônio na i-ésima camada da rede não pode ser usada como entrada de nodos em camadas de índice menor ou igual a i X 1 X 1 X 2 X 1 X 3 X 2 X 2 X 6 X 4 X 3 X 5 X 3 X 4 X 7 X 6 X 5
67 67/164 Arquiteturas de RNA Tipos de conexões dos nós feedback ou cíclica ou recorrente a saída do neurônio na i-ésima camada da rede é usada como entrada de nodos em camadas de índice menor ou igual a i X 1 X 2 X 1 X 4 X 5 X 2
68 68/164 Arquiteturas de RNA feedback ou cíclica ou recorrente o nível de ativação da rede forma um sistema dinâmico que pode alcançar um estado estável ou exibir oscilações ou comportamento caótico além disso, a resposta da rede para uma dada entrada depende de seu estado inicial, que pode depender das entradas anteriores por isso, elas podem suportar memória (em partes) elas são mais parecidas com o cérebro humano (diferente das acíclicas), mas são mais complicadas
69 69/164 Arquiteturas de RNA Conectividade fracamente (ou parcialmente) conectada X 1 X 1 X 2 X 2 X 3 X 6 X 3 X 4 X 5 X 4 X 7 X 6 X 1 X 5 X 2 X 4 X 5
70 70/164 Arquiteturas de RNA Conectividade completamente conectada X 1 X 2
71 71/164 Arquiteturas de RNA Uma rede neural é caracterizada, principalmente pela sua topologia feedforward, feedback pelas características dos nós booleano, fuzzy, híbrido pelas regras de treinamento Hebb, backpropagation,...
72 72/164 Modelos de RNA Perceptrons (acíclica) Perceptrons de Múltiplas Camadas (acíclica) Rede Hopfield (cíclica)...
73 Aprendizagem em Redes Neurais Artificiais 73/164 No aprendizado cognitivo, não se procura obter regras como na abordagem simbólica da IA mas sim determinar a intensidade de conexões entre neurônios Em outras palavras, aprendizagem em RNA é o processo de modificar os valores de pesos e do limiar
74 Aprendizagem em Redes Neurais Artificiais 74/164 Definição Aprendizagem é o processo pelo qual os parâmetros de uma RNA são ajustados através de uma forma continuada de estímulo pelo ambiente no qual a rede está operando, sendo o tipo específico de aprendizagem realizada definido pela maneira particular como ocorrem os ajustes realizados nos parâmetros
75 Aprendizagem em Redes Neurais Artificiais 75/164 Regras de aprendizagem em RNA estabelecer um conjunto de pesos para suas conexões ativar um conjunto de unidades que correspondam a um padrão de entrada observar o padrão para o qual a rede converge e em que se estabiliza
76 Aprendizagem em Redes Neurais Artificiais 76/164 Regras de aprendizagem em RNA se o padrão final não corresponder ao que se deseja associar como resposta ao de entrada, é preciso fazer ajustes nos pesos e ativar novamente o padrão de entrada por causa de sua semelhança com o aprendizado humano, esse processo de ajustes sucessivos das RNA é chamado de aprendizagem
77 77/164 Aprendizagem em Redes Neurais Artificiais Regra de Hebb Desenvolvida por Donald Hebb em 1949 Princípio: a força da conexão entre dois neurônios é aumentada se os neurônios estão simultaneamente excitados w ij = µ.y i.x j μ = taxa de aprendizado yi e xj = ativações das unidades yi e xj
78 Aprendizagem em Redes Neurais Artificiais 78/164 Lei de aprendizagem de Hebb Se um neurônio A é repetidamente estimulado por um outro neurônio B, ao mesmo tempo em que ele está ativo, ele ficará mais sensível ao estímulo de B, e a conexão sináptica de B para A será mais forte. Deste modo, B achará mais fácil estimular A para produzir uma saída. O conhecimento fica retido nos neurônios Para reter conhecimento, toda RNA passa por um processo de aprendizagem
79 Aprendizagem em Redes Neurais Artificiais 79/164 Regra Delta (Widrow-Hoff) A regra Delta é uma variação da regra de Hebb Foi desenvolvida por Bernard Widrow e Ted Hoff (1982), conhecida também como least mean square (LMS), por minimizar o erro médio quadrático
80 80/164 Gradiente Descendente e a Regra Delta Uso do gradiente descendente para reduzir o erro Uso do gradiente descendente para buscar o vetor de pesos que melhor se ajuste ao conjunto de treinamento independentemente do conjunto de treinamento ser linearmente separável
81 81/164 Função de Custo Especifique uma medida de erro (função de custo) para o treinamento E(w) = 1/2 d D (t d - o d ) 2, em que D é o conjunto de treinamento t d é a saída desejada para o exemplo d o d é a saída para o exemplo d
82 82/164 Minimização do custo A função E é uma medida objetiva do erro preditivo para uma escolha especifíca de vetor de pesos Objetivo: encontrar um vetor w que minimize E Solução: usar técnicas de gradiente descendente
83 83/164 Minimização do custo 1. Escolha valores iniciais arbitrários para os pesos 2. Calcule o gradiente da função de custo com respeito a cada peso 3. Mude os pesos tal que haja um deslocamento pequeno na direção de G -G => Maior taxa de diminuição do erro 5. Repita passos 2 e 3 até que erro se aproxime de zero Como este algoritmo funciona?
84 Algoritmo de Widrow e Hoff Inicializar η e o vetor de pesos w Repetir Inicializar w i com zero Para cada par do conjunto de treinamento (x, t) calcule a saída o para cada peso w i calcule w i w i + η (t - o)x i Para cada peso w i w i w i + w i Até que uma condição de término seja satisfeita 84/164
85 85/164 Perceptrons Desenvolvido por Rosenblat (1958) Utiliza modelo de McCulloch-Pitts Todas as entradas conectadas diretamente nas saídas Rede neural camada simples Perceptron
86 86/164 Perceptrons Estrutura mais simples de RNAs
87 87/164 Perceptrons Rede mais simples que pode ser utilizada para classificação de padrões linearmente separáveis Há muitas funções booleanas que o limiar (threshold) perceptron não pode representar
88 88/164 Portas de limiar (threshold) Linearmente separáveis I 1 AND I 2 (0,1) (1,1) (0,0) (1,0)
89 89/164 Portas de limiar (threshold) Linearmente separáveis I 1 OR I 2 (0,1) (1,1) (0,0) (1,0)
90 90/164 Portas de limiar (threshold) Linearmente separáveis I 1 XOR I 2 (0,1) (1,1)??? (0,0) (1,0)
91 91/164 Perceptrons Há um algoritmo de aprendizado simples que ajustará (encontrará) um limiar para qualquer conjunto de treinamento linearmente separável A idéia deste algoritmo, e da maioria dos algoritmos de aprendizado de redes neurais, é ajustar os pesos da rede para minimizar a medida de erro em um conjunto de treinamento
92 92/164 Perceptrons O aprendizado é formulado como uma busca otimizada em um espaço de busca O algoritmo de aprendizagem do perceptron utiliza o algoritmo de correções de erros como base
93 93/164 Perceptrons Treinamento Supervisionado Correção de erro: ΔW ij =μ e x i µ = taxa de aprendizagem x i = valor de entrada e = (d j y i ) = erro (valor calculado valor desejado) Teorema da convergência: Se é possível classificar um conjunto de entradas, uma rede Perceptron fará a classificação
94 94/164 Perceptrons Treinamento: Algoritmo Iniciar todas as conexões com w i = 0 (ou aleatórios) Repita Para cada padrão de treinamento (X, d) faça Calcular a saída y Se (d y) então atualizar pesos w i t+1 =w i +η e x i até o erro ser aceitável
95 Algoritmo de aprendizado do Perceptron 95/164 Teorema da convergência (Minsky e Papert, 1969) O algoritmo converge dentro de um número finito de passos para um vetor de pesos que classifica corretamente todo o conjunto de treinamento dado que o conjunto de treinamento é linearmente separável
96 96/164 Perceptrons Treinamento Algoritmo:
97 97/164 Perceptrons Algoritmo de teste: Para cada padrão de 1 a p faça Apresentar X p à entrada da rede Calcular a saída y Se y θ então X p Classe 1 senão X p Classe 2
98 98/164 Perceptrons Apesar de causar grande euforia na comunidade científica, não teve vida longa sofreu duras críticas de Minsky e Papert sobre sua capacidade computacional causando grande desinteresse na área na década de 70 e início dos anos 80 Esta visão pessimista sobre a capacidade do perceptron e das RNAs mudo devido às descrições de Hopfield em 1982 e do algoritmo back-propagation (retropropagação) a área ganhou novo impulso
99 99/164 Perceptrons Função linearmente separável com 11 entradas booleanas Proporção correta no conj. de teste 1 0,95 0,9 0,85 0,8 0,75 0,7 0,65 0,6 0,55 0,5 0,45 0,4 0,35 0,3 0,25 0,2 0,15 0,1 0,05 0 Coluna B Coluna C Linha 1 Linha 2 Linha 3 Linha 4 Linha 5 Linha 6 Linha 7 Linha 8 Linha 9 Linha 10 Linha 11 Linha 12 Linha 13 Linha 14 Linha 15 Linha 16 Tamanho do conjunto de treinamento (0-100)
100 100/164 Perceptrons Exemplo do restaurante, não é linearmente separável 0,95 0,9 0,85 0,8 0,75 0,7 0,65 Proporção correta do conjunto de teste 0,6 0,55 0,5 0,45 0,4 0,35 0,3 0,25 0,2 0,15 0,1 0,05 0 Coluna A Coluna B Linha 1 Linha 2 Linha 3 Linha 4 Linha 5 Linha 6 Linha 7 Linha 8 Linha 9 Linha 10 Linha 11 Linha 12 Linha 13 Linha 14 Linha 15 Linha 16
101 101/164 Aprendizagem em RNAs Algoritmo de retropropagação Desenvolvido por Paul Werbos (1974) e redescoberto independentemente por Parker (1982) e Rumelhart (1986) Aplicado para RNA cíclica (feedforward) com uma ou mais camadas intermediárias Utiliza um método do gradiente descendente por correção de erro: o algoritmo de codificação executa um mapeamento entrada-saída através da minimização de uma função de custo qualquer
102 102/164 Aprendizagem em RNAs Algoritmo de retropropagação A função de custo é minimizada realizando-se iterativamente ajustes nos pesos sinápticos de acordo com o erro quadrático acumulado para todos os padrões do conjunto de treinamento Outras funções de custo podem ser utilizadas, mas independentemente disto, o procedimento de ajuste de pesos é realizado através do cálculo da mudança da função de custo com respeito à mudança em cada peso (método do delta)
103 103/164 Aprendizagem em RNAs Algoritmo de retropropagação O processo de redução gradativa de erro que acompanha a minimização se denomina convergência A medida que a rede aprende, o valor do erro converge para um valor estável, normalmente irredutível O processo de aprendizagem prossegue até que algum critério seja estabelecido, como por exemplo, uma diferença sucessiva mínima entre erros calculados para cada iteração
104 104/164 Aprendizagem em RNAs Algoritmo de retropropagação Regra Delta generalizada Cálculo do erro na saída LMS E= 1 2 i d i y i 2 RMS E= i d i y i 2
105 105/164 Perceptrons com múltiplas camadas Redes neurais acíclicas multicamadas redes com unidades intermediárias ou escondidas
106 106/164 Perceptrons com múltiplas camadas Apresentam um poder computacional muito maior do que aquele apresentado pelas redes sem camadas intermediárias Tratam com dados que não são linearmente separáveis Teoricamente, redes com mais de uma camada intermediária podem implementar qualquer função, seja ela linearmente separável ou não
107 107/164 Perceptrons com múltiplas camadas A vantagem de adicionar camadas escondidas é que elas aumentam o espaço de hipóteses que a rede pode representar exemplificando cada unidade escondida é vista como um perceptron que representa uma função limiar no espaço de entradas então, uma unidade de saída é vista como uma combinação de várias funções
108 108/164 Perceptrons com múltiplas camadas Problema: Perceptron redes com uma camada resolvem apenas problemas linearmente separáveis 1, 1 0 0, 1 1 1, 0 1 0, 0 0
109 109/164 Perceptrons com múltiplas camadas Solução: Utilizar mais de uma camada Camada 1: uma rede Perceptron para cada grupo de entradas linearmente separáveis
110 110/164 Perceptrons com múltiplas camadas Solução: Utilizar mais de uma camada Camada 2: uma rede combinando as saídas das redes da 1ª camada, produzindo a classificação final
111 111/164 Problema Perceptrons com múltiplas camadas nem sempre se conhece a saída desejada dos nós da camada intermediária Suponha que queremos construir uma rede com camada escondida para o problema do restaurante 10 atributos no exemplo, então 10 entradas na rede Quantas unidades escondidas? foi usada 4 o problema de escolher o número correto de unidades escondidas ainda não é bem entendido
112 112/164 Perceptrons com múltiplas camadas Algoritmo de aprendizado: retropropagação Número de neurônios da camada intermediária NH = Número de neurônios da camada intermediária NS = Número de neurônios da camada de saída NE = Número de neurônios da camada de entrada NH=NS+ NE NH= 1 10=4 Outros: NH=NS NE NH= 1 10=10
113 113/164 Perceptrons com múltiplas camadas Algoritmo de aprendizado: retropropagação antes de se iniciar o processo de aprendizado por retropropagação, é necessário que se tenha: o conjunto de padrões de treinamento, entrada e saída desejada um valor para a taxa de aprendizado um critério que finalize o algoritmo (por nº de ciclos - ou épocas - ou por erro)
114 114/164 Perceptrons com múltiplas camadas Algoritmo de aprendizado: retropropagação antes de se iniciar o processo de aprendizado por retropropagação, é necessário que se tenha: uma metodologia para atualizar os pesos ( w) a função de transferência não-linear valores de pesos iniciais
115 115/164 Perceptrons com múltiplas camadas Algoritmo de aprendizado: retropropagação basicamente a rede aprende um conjunto prédefinido de pares de exemplos de entrada/saída em ciclos de propagação/adaptação depois que um padrão de entrada foi aplicado como um estímulo aos elementos da primeira camada da rede, ele é propagado por cada uma das outras camadas até que a saída seja gerada
116 116/164 Perceptrons com múltiplas camadas Algoritmo de aprendizado: retropropagação este padrão de saída é então comparado com a saída desejada e um sinal de erro é calculado para cada elemento de saída o sinal de erro é então retro-propagado da camada de saída para cada elemento da camada intermediária anterior que contribui diretamente para a formação da saída entretanto, cada elemento da camada intermediária recebe apenas uma porção do sinal de erro total, proporcional apenas à contribuição relativa de cada elemento na formação da saída original
117 117/164 Perceptrons com múltiplas camadas Algoritmo de aprendizado: retropropagação este processo se repete, camada por camada, até que cada elemento da rede receba um sinal de erro que descreva sua contribuição relativa para o erro total baseado no sinal de erro recebido, os pesos das conexões são, então, atualizados para cada elemento de modo a fazer a rede convergir para um estado que permita a codificação de todos os padrões do conjunto de treinamento
118 118/164 Perceptrons com múltiplas camadas Algoritmo de aprendizado: retropropagação Inicialização do treinamento (N = 1) Inicialização dos pesos aleatoriamente Apresentação dos vetores de entrada e Cálculo das saídas Cálculo do erro das saídas E < E d S Pare Rede treinada N N+1 N N > N Max S Pare Número máximo de épocas Recálculo dos pesos da camada de saída Recálculo dos pesos da camada intermediária N Utilização do Método do Gradiente Descendente Atualização dos pesos
119 119/164 Perceptrons com múltiplas camadas Algoritmo de aprendizado: retropropagação Critérios de parada finalizar o treinamento após n ciclos finalizar o treinamento após o erro quadrático médio ficar abaixo de uma constante α finalizar o treinamento quando a porcentagem de classificações corretas estiver acima de uma constante α (mais indicado para saídas binárias) combinação dos métodos acima
120 120/164 Rede de Hopfield Rede cíclica ou recorrente alimenta a sua saída nas suas próprias entradas As unidades assumem um estado binário ativo ou inativo estas unidades estão conectadas entre si por arestas simétricas com pesos arestas com pesos positivos indicam que as duas unidades tendem a ativar uma a outra arestas com pesos negativos indica que uma unidade ativa pode desativar outra unidade
121 Rede de Hopfield 121/164
122 122/164 Rede de Hopfield Dado um padrão que procuramos, podemos encontrar um que se aproxime, sem precisar ser exato O que é um elefante? um mamífero grande e cinza O aprendizado é não supervisionado e baseado no conceito de energia da rede
123 Rede de Hopfield Algoritmo 123/164 Uma unidade aleatória é escolhida Se qualquer um dos vizinhos estiver ativo, a unidade computará a soma dos pesos das conexões com os neurônios vizinhos ativos se a soma for positiva, a unidade ficará ativa se a soma for negativa, a unidade ficará inativa Uma outra unidade aleatória é escolhida e o processo se repete até que toda rede atinja um estado estável relaxamento paralelo
124 124/164 Rede de Hopfield Conexões simétrica e ponderadas unidade inativa unidade ativa +1-1
125 125/164 Rede de Hopfield unidade escolhida aleatoriamente +4-1= +3?
126 126/164 Rede de Hopfield ? escolhida +2-3 = -1 +3
127 127/164 Rede de Hopfield -1? escolhida +3-2 =
128 128/164 Rede de Hopfield escolhida +1-2 = -1?
129 129/164 Rede de Hopfield ? +1-1 escolhida +3-0 = +3
130 130/164 Rede de Hopfield ? = +2 escolhida +1-1
131 131/164 Rede de Hopfield = ? escolhida
132 132/164 Rede de Hopfield
133 133/164 Rede de Hopfield Caracteristicas interessantes Controle distribuído e assíncrono cada elemento de processamento toma decisões baseadas apenas em sua própria situação local Memória accessível pelo conteúdo vários padrões podem ser armazenados em uma mesma rede
134 134/164 Rede de Hopfield Caracteristicas interessantes Tolerâncias a falhas se algum dos elementos de processamento se comportarem mal ou falharem totalmente, a rede ainda funcionará bem Fator de aproximação por exemplo: peixe, grande, cinza e come placton??? Baleia Baleia não é peixe e sim mamífero
135 135/164 Desenvolvimento de aplicações Coleta de dados e separação em conjuntos esta tarefa requer uma análise cuidadosa sobre o problema para minimizar ambigüidades e erros nos dados os dados coletados devem ser significativos e cobrir amplamente o domínio do problema não devem cobrir apenas as operações normais ou rotineiras, mas também as exceções e as condições nos limites do domínio do problema
136 136/164 Desenvolvimento de aplicações Coleta de dados e separação em conjuntos os dados coletados são separados em duas categorias: dados de treinamento dados de teste
137 137/164 Desenvolvimento de aplicações 3. Configuração da rede: pode ser dividido em três etapas: 3.1 Seleção do paradigma neural apropriado à aplicação acíclica ou recorrente (cíclica) 3.2 Determinação da topologia da rede a ser utilizada número de camadas, número de unidades em cada camada, etc. 3.3 Determinação de parâmetros do algoritmo de treinamento e funções de ativação este passo tem um grande impacto na performance do sistema resultante
138 138/164 Desenvolvimento de aplicações 4. Treinamento seguindo o algoritmo de treinamento escolhido, serão ajustados os pesos das conexões é importante considerar, nesta fase, alguns aspectos a inicialização da rede o modo de treinamento o tempo de treinamento o treinamento deve ser interrompido quando a rede apresentar uma boa capacidade de generalização quando a taxa de erro for suficientemente pequena
139 139/164 Desenvolvimento de aplicações 5. Teste durante esta fase o conjunto de teste é utilizado para determinar a performance da rede com dados que não foram previamente utilizados a performance da rede, medida nesta fase, é uma boa indicação de sua performance real 6. Implantação
140 140/164 Aplicações Sistemas de auxílio ao Diagnóstico: Médico, Falhas de Sistemas etc. Previsão de Séries Temporais: Cotações da Bolsa de Valores, Dados Econômicos, Consumo de Energia Elétrica, Metereologia etc. Processamento de Linguagem Natural - PLN (Textos e Web)
141 141/164 Aplicações Data Mining & KDD (Knowledge Data Discovery) Robótica Inteligente Sistemas de Controle e Automação Reconhecimento e Síntese de Voz Processamento de Sinais e Imagens: Radar, Sensores, Imagens de satélite etc.
142 142/164 Aplicações Prognósticos de mercados financeiros Reconhecimento ótico de caracteres (OCR) Controle de processos industriais Análise de jogadores e times (NBA) Reconhecimento da fala Piloto automático Reprodução da fala SE
143 143/164 Educação Em software educacionais: identificar deficiências auxiliando avaliar desempenhos prevendo problemas aprendendo
144 144/164 Considerações finais Vantagens das RNAs Aplicações de Machine Learning e Sistemas Adaptativos Aplicadas em tarefas onde temos bases de exemplos disponíveis sobre um determinado problema, realizando a aquisição automática de conhecimentos Associação de padrões de entradas e saída Classificação de padrões de forma supervisionada ou não
145 145/164 Considerações finais Vantagens das RNAs Aproximação de funções desconhecidas através de amostras destas funções Trabalhar com dados aproximados, incompletos e inexatos Paralelismo, generalização, robustez Tarefas complexas realizadas por seres humanos
146 146/164 Considerações finais Limitações das RNAs Composição e construção de conhecimentos estruturados Dificuldade de explicitação dos conhecimentos adquiridos Dificuldade para definir a estrutura da rede, seus parâmetros e a base de dados Falta de garantia de uma convergência do algoritmo para uma solução ótima
147 147/164 Considerações finais Apesar da neurocomputação ter nascido praticamente junto com a computação programada (décadas de 40 à década de 50), era inviável que se desenvolvesse E o seu futuro??? comparável à invenção do avião
148 Perceptrons EXERCÍCIO 148/164 Treinamento Ensinar uma rede Perceptron a classificar os seguintes padrões: Utilizar a rede treinada para classificar os padrões
149 Perceptrons EXERCÍCIO 149/164 Codificar as entradas Saída desejada Entrada = 1 = 111 n i 1 x i w i θ S θ=1 S<θ= 1 = -1 Supor η = 0.2, θ = 0, = w 0 = 0.4, w 1 = -0.8, w 0 = 0.3 Equação do erro: E = S d - S o onde S d é a saída desejada S o é a saída obtida w 0 w 1 w 2 N j=1 x j w j d Fator de correção: F = η *x*e onde η = taxa de aprendizagem x é a entrada E é o erro Equação do ajuste: w novo = w + F
150 Perceptrons EXERCÍCIO 150/164 Treinar a rede para o padrão (d = -1) Passo 1: definir a saída da rede Supor η = 0.2, θ = 0, w 0 = 0.4, w 1 = -0.8, w 0 = 0.3 n i 1 x i w i θ S = y = +1 (uma vez que 0,1 0) (-1)(0.4) + (-1)(-0,8) + (-1)(0.3) = 0.1 como (d y), atualizar pesos
151 Perceptrons EXERCÍCIO Treinar a rede para o padrão (d = -1) Passo 2: atualizar pesos Supor η = 0.2, θ = 0, w 0 = 0.4, w 1 = -0.8, w 0 = /164 w i t+1 =w i +η e x i w 0 = w 1 = w 2 = ,2(-1)(-1 (+1)) = ,2(-1)(-1 (+1)) = ,2(-1)(-1 (+1)) = 0.7
152 Perceptrons EXERCÍCIO Treinar a rede para o padrão (d = -1) 152/164 Passo 1: definir a saída da rede Supor η = 0.2, θ = 0, w 0 = 0.8, w 1 = -0.4, w 0 = 0.7 n i 1 x i w i θ S = y = +1 (uma vez que +1 0) (-1)(0.8) + (-1)(-0,4) + (-1)(0.7) = -1 como (d = y), não necessita atualizar pesos
153 Perceptrons EXERCÍCIO 153/164 treinar a rede para o padrão 111 (d = 1) Passo 1: definir a saída da rede S = (1)(0.8) + (1)(-0,4) + (1)(0.7) = 1.1 y = +1 (uma vez que 1,1 0) como (d = y), não precisa atualizar pesos Agora fazer os testes
154 Perceptrons EXERCÍCIO 154/164 Validação: testar a rede Para o padrão Para o padrão 1-11 Para o padrão 1-11
155 Perceptrons EXERCÍCIO 155/164 Validação: testar a rede Para o padrão s = (-1)(0.8) + (1)(-0,4) + (-1)(0.7) = -1.9 (classe 1) Para o padrão 1-11 s = (1)(0.8) + (-1)(-0,4) + (1)(0.7) = 1.9(classe 2) Para o padrão 1-11 s = (1)(0.8) + (-1)(-0,4) + (-1)(0.7) = 0,5 (classe 2)
156 Perceptrons EXERCÍCIO Treinamento Ensinar uma rede Perceptron a classificar os seguintes padrões: Utilizar a rede treinada para classificar os padrões
157 Codificar as entradas Saída desejada = 1 = -1 Entrada Supor η = 0.2, θ = 0, w 0 = 0.4, w 1 = -0.8, w 2 = 0.3 Perceptrons EXERCÍCIO = 111 = n i 1 x i w i θ S θ=1 S<θ= 1 157/164 Equação do erro: E = S d - S o onde S d é a saída desejada S o é a saída obtida w 0 w 1 w 2 N j=1 x j w j d Fator de correção: F = η *x*e onde η = taxa de aprendizagem x é a entrada E é o erro Equação do ajuste: w novo = w + F
158 Perceptrons EXERCÍCIO 158/164 Treinar a rede para o padrão (d = -1) Passo 1: definir a saída da rede Supor η = 0.2, θ = 0, w 0 = 0.4, w 1 = -0.8, w 2 = 0.3 n i 1 S = x i w i θ (-1)(0.4) + (-1)(-0,8) + (-1)(0.3) = 0.1 y = +1 (uma vez que 0,1 0) como (d y), atualizar pesos
159 Perceptrons EXERCÍCIO 159/164 Treinar a rede para o padrão (d = -1) Passo 2: atualizar pesos Supor η = 0.2, θ = 0, w 0 = 0.4, w 1 = -0.8, w 2 = 0.3 w0 = w1 = w2 = w i t+1 =w i +η e x i ,2(-1)(-1 (+1)) = ,2(-1)(-1 (+1)) = ,2(-1)(-1 (+1)) = 0.7
160 Perceptrons EXERCÍCIO 160/164 Treinar a rede para o padrão (d = -1) Passo 1: definir a saída da rede Supor η = 0.2, θ = 0, w 0 = 0.8, w 1 = -0.4, w 2 = 0.7 n i 1 S = x i w i θ (-1)(0.8) + (-1)(-0,4) + (-1)(0.7) = -1 y = +1 (uma vez que +1 0) como (d = y), não necessita atualizar pesos
161 Perceptrons EXERCÍCIO 161/164 treinar a rede para o padrão 111 (d = 1) Passo 1: definir a saída da rede S = (1)(0.8) + (1)(-0,4) + (1)(0.7) = 1.1 y = +1 (uma vez que 1,1 0) como (d = y), não precisa atualizar pesos Agora fazer os testes
162 Perceptrons EXERCÍCIO 162/164 Validação: testar a rede Para o padrão Para o padrão 1-11 Para o padrão 1-11
163 Perceptrons EXERCÍCIO 163/164 Validação: testar a rede Para o padrão (classe 1) s = (-1)(0.8) + (1)(-0,4) + (-1)(0.7) = -1.9 Para o padrão 1-11 (classe 2) s = (1)(0.8) + (-1)(-0,4) + (1)(0.7) = 1.9 Para o padrão 1-11 (classe 2) s = (1)(0.8) + (-1)(-0,4) + (-1)(0.7) = 0,5
164 164/164 Referências Russel, S, & Norvig, P. (1995). Artificial Intelligence: a Modern Approach Prentice- Hall. Cap.20. Pearl, J. (1988) Probabilistic Reasoning in Inteligent Systems
Redes Neurais. Profa. Flavia Cristina Bernardini
Redes Neurais Profa. Flavia Cristina Bernardini Introdução Cérebro & Computador Modelos Cognitivos Diferentes Cérebro Computador Seqüência de Comandos Reconhecimento de Padrão Lento Rápido Rápido Lento
Complemento II Noções Introdutória em Redes Neurais
Complemento II Noções Introdutória em Redes Neurais Esse documento é parte integrante do material fornecido pela WEB para a 2ª edição do livro Data Mining: Conceitos, técnicas, algoritmos, orientações
Redes Neurais. A IA clássica segue o paradigma da computação simbólica
Abordagens não simbólicas A IA clássica segue o paradigma da computação simbólica Redes Neurais As redes neurais deram origem a chamada IA conexionista, pertencendo também a grande área da Inteligência
MLP (Multi Layer Perceptron)
MLP (Multi Layer Perceptron) André Tavares da Silva [email protected] Roteiro Rede neural com mais de uma camada Codificação de entradas e saídas Decorar x generalizar Perceptron Multi-Camada (MLP -
Figura 5.1.Modelo não linear de um neurônio j da camada k+1. Fonte: HAYKIN, 2001
47 5 Redes Neurais O trabalho em redes neurais artificiais, usualmente denominadas redes neurais ou RNA, tem sido motivado desde o começo pelo reconhecimento de que o cérebro humano processa informações
Modelos Pioneiros de Aprendizado
Modelos Pioneiros de Aprendizado Conteúdo 1. Hebb... 2 2. Perceptron... 5 2.1. Perceptron Simples para Classificaçãod e Padrões... 6 2.2. Exemplo de Aplicação e Motivação Geométrica... 9 2.3. Perceptron
IC Inteligência Computacional Redes Neurais. Redes Neurais
Universidade Federal do Rio de Janeiro PÓS-GRADUAÇÃO / 2008-2 IC Inteligência Computacional Redes Neurais www.labic.nce.ufrj.br Antonio G. Thomé [email protected] Redes Neurais São modelos computacionais
Do neurônio biológico ao neurônio das redes neurais artificiais
Do neurônio biológico ao neurônio das redes neurais artificiais O objetivo desta aula é procurar justificar o modelo de neurônio usado pelas redes neurais artificiais em termos das propriedades essenciais
Projeto de Redes Neurais e MATLAB
Projeto de Redes Neurais e MATLAB Centro de Informática Universidade Federal de Pernambuco Sistemas Inteligentes IF684 Arley Ristar [email protected] Thiago Miotto [email protected] Baseado na apresentação
Algoritmos e Programação (Prática) Profa. Andreza Leite [email protected]
(Prática) Profa. Andreza Leite [email protected] Introdução O computador como ferramenta indispensável: Faz parte das nossas vidas; Por si só não faz nada de útil; Grande capacidade de resolução
Matlab - Neural Networw Toolbox. Ana Lívia Soares Silva de Almeida
27 de maio de 2014 O que é a Neural Networw Toolbox? A Neural Network Toolbox fornece funções e aplicativos para a modelagem de sistemas não-lineares complexos que não são facilmente modelados com uma
Aprendizagem de Máquina
Aprendizagem de Máquina Professor: Rosalvo Ferreira de Oliveira Neto Disciplina: Inteligência Artificial Tópicos 1. Definições 2. Tipos de aprendizagem 3. Paradigmas de aprendizagem 4. Modos de aprendizagem
UNISINOS - UNIVERSIDADE DO VALE DO RIO DOS SINOS
UNISINOS - UNIVERSIDADE DO VALE DO RIO DOS SINOS Curso: Informática Disciplina: Redes Neurais Prof. Fernando Osório E-mail: [email protected] EXEMPLO DE QUESTÕES DE PROVAS ANTIGAS 1. Supondo que
Inteligência Artificial
Inteligência Artificial As organizações estão ampliando significativamente suas tentativas para auxiliar a inteligência e a produtividade de seus trabalhadores do conhecimento com ferramentas e técnicas
Inteligência Artificial. Redes Neurais Artificiais
Curso de Especialização em Sistemas Inteligentes Aplicados à Automação Inteligência Artificial Redes Neurais Artificiais Aulas Práticas no Matlab João Marques Salomão Rodrigo Varejão Andreão Matlab Objetivos:
Na medida em que se cria um produto, o sistema de software, que será usado e mantido, nos aproximamos da engenharia.
1 Introdução aos Sistemas de Informação 2002 Aula 4 - Desenvolvimento de software e seus paradigmas Paradigmas de Desenvolvimento de Software Pode-se considerar 3 tipos de paradigmas que norteiam a atividade
PRINCÍPIOS DE NEUROCOMPUTAÇÃO
PRINCÍPIOS DE NEUROCOMPUTAÇÃO Neurocomputação Funcionamento do cérebro humano e os neurônios Formação das conexões e como se concebe teoricamente a aquisição do conhecimento, formalizando-os em procedimentos
Redes Neurais Construtivas. Germano Crispim Vasconcelos Centro de Informática - UFPE
Redes Neurais Construtivas Germano Crispim Vasconcelos Centro de Informática - UFPE Motivações Redes Feedforward têm sido bastante utilizadas em aplicações de Reconhecimento de Padrões Problemas apresentados
Aula 2 RNA Arquiteturas e Treinamento
2COP229 Aula 2 RNA Arquiteturas e Treinamento 2COP229 Sumário 1- Arquiteturas de Redes Neurais Artificiais; 2- Processos de Treinamento; 2COP229 1- Arquiteturas de Redes Neurais Artificiais -Arquitetura:
Redes Neurais Artificiais na Engenharia Nuclear 2 Aula-1 Ano: 2005
Redes Neurais Artificiais na Engenharia Nuclear 1 - Apresentação do Professor: dados, lista de E-mail s, etc. - Apresentação da Turma: Estatística sobre origem dos alunos para adaptação do curso - Apresentação
Pós-Graduação em Engenharia Elétrica Inteligência Artificial
Pós-Graduação em Engenharia Elétrica Inteligência Artificial João Marques Salomão Rodrigo Varejão Andreão Inteligência Artificial Definição (Fonte: AAAI ): "the scientific understanding of the mechanisms
Tabela de Símbolos. Análise Semântica A Tabela de Símbolos. Principais Operações. Estrutura da Tabela de Símbolos. Declarações 11/6/2008
Tabela de Símbolos Análise Semântica A Tabela de Símbolos Fabiano Baldo Após a árvore de derivação, a tabela de símbolos é o principal atributo herdado em um compilador. É possível, mas não necessário,
MINERAÇÃO DE DADOS APLICADA. Pedro Henrique Bragioni Las Casas [email protected]
MINERAÇÃO DE DADOS APLICADA Pedro Henrique Bragioni Las Casas [email protected] Processo Weka uma Ferramenta Livre para Data Mining O que é Weka? Weka é um Software livre do tipo open source para
1.1. Organização de um Sistema Computacional
1. INTRODUÇÃO 1.1. Organização de um Sistema Computacional Desde a antiguidade, o homem vem desenvolvendo dispositivos elétricoeletrônicos (hardware) que funciona com base em instruções e que são capazes
Relatório da Aula Prática sobre Redes Neurais Artificiais
Relatório da Aula Prática sobre Redes Neurais Artificiais Instituto de Informática UFRGS Carlos Eduardo Ramisch Cartão: 134657 INF01017 Redes Neurais e Sistemas Fuzzy Porto Alegre, 16 de outubro de 2006.
Radar de Penetração no Solo e Meio- Ambiente
UNIVERSIDADE DE SÃO PAULO INSTITUTO DE ASTRONOMIA, GEOFÍSICA E CIÊNCIAS ATMOSFÉRICAS DEPARTAMENTO DE GEOFÍSICA Curso 3ª Idade Radar de Penetração no Solo e Meio- Ambiente Vinicius Rafael Neris dos Santos
Memórias Prof. Galvez Gonçalves
Arquitetura e Organização de Computadores 1 s Prof. Galvez Gonçalves Objetivo: Compreender os tipos de memória e como elas são acionadas nos sistemas computacionais modernos. INTRODUÇÃO Nas aulas anteriores
CAPÍTULO 3 - TIPOS DE DADOS E IDENTIFICADORES
CAPÍTULO 3 - TIPOS DE DADOS E IDENTIFICADORES 3.1 - IDENTIFICADORES Os objetos que usamos no nosso algoritmo são uma representação simbólica de um valor de dado. Assim, quando executamos a seguinte instrução:
Revisão Inteligência Artificial ENADE. Prof a Fabiana Lorenzi Outubro/2011
Revisão Inteligência Artificial ENADE Prof a Fabiana Lorenzi Outubro/2011 Representação conhecimento É uma forma sistemática de estruturar e codificar o que se sabe sobre uma determinada aplicação (Rezende,
O que é a ciência de dados (data science). Discussão do conceito. Luís Borges Gouveia Universidade Fernando Pessoa Versão 1.
O que é a ciência de dados (data science). Discussão do conceito Luís Borges Gouveia Universidade Fernando Pessoa Versão 1.3, Outubro, 2015 Nota prévia Esta apresentação tem por objetivo, proporcionar
Extração de Requisitos
Extração de Requisitos Extração de requisitos é o processo de transformação das idéias que estão na mente dos usuários (a entrada) em um documento formal (saída). Pode se entender também como o processo
ARQUITETURA DE COMPUTADORES - 1866
7 Unidade Central de Processamento (UCP): O processador é o componente vital do sistema de computação, responsável pela realização das operações de processamento e de controle, durante a execução de um
Aplicações Práticas com Redes Neurais Artificiais em Java
com em Java Luiz D Amore e Mauro Schneider JustJava 2009 17 de Setembro de 2009 Palestrantes Luiz Angelo D Amore [email protected] Mauro Ulisses Schneider [email protected] http://blog.mauros.org
IW10. Rev.: 02. Especificações Técnicas
IW10 Rev.: 02 Especificações Técnicas Sumário 1. INTRODUÇÃO... 1 2. COMPOSIÇÃO DO IW10... 2 2.1 Placa Principal... 2 2.2 Módulos de Sensores... 5 3. APLICAÇÕES... 6 3.1 Monitoramento Local... 7 3.2 Monitoramento
Curso Técnico em Redes
Curso Técnico em Redes Prof. Airton Ribeiro - 2012 Histórico das Linguagens de Programação O que é? É um método padronizado para expressar instruções para um computador. É um conjunto de regras sintáticas
Núcleo de Informática Aplicada à Educação Universidade Estadual de Campinas
Núcleo de Informática Aplicada à Educação Universidade Estadual de Campinas Resumo A construção de dispositivos controlados através do computador, como ferramenta educacional associado ao trabalho com
3. REDES DE CAMADA ÚNICA
3. REDES DE CAMADA ÚNICA Perceptron Forma mais simples de RN Utilizado para classificação de padrões (linearmente separáveis) Consiste em um único neurônio, com pesos sinápticos ajustáveis e bias 3.1 Funções
Multiplexador. Permitem que vários equipamentos compartilhem um único canal de comunicação
Multiplexadores Permitem que vários equipamentos compartilhem um único canal de comunicação Transmissor 1 Receptor 1 Transmissor 2 Multiplexador Multiplexador Receptor 2 Transmissor 3 Receptor 3 Economia
Roteamento em Redes de Computadores
Roteamento em Redes de Computadores José Marcos Câmara Brito INATEL - Instituto Nacional de Telecomunicações INATEL - Instituto Nacional de Telecomunicações 01/08/00 1 Introdução Objetivo Tipos de rede
Matemática Financeira II
Módulo 3 Unidade 28 Matemática Financeira II Para início de conversa... Notícias como essas são encontradas em jornais com bastante frequência atualmente. Essas situações de aumentos e outras como financiamentos
1. NÍVEL CONVENCIONAL DE MÁQUINA
1. NÍVEL CONVENCIONAL DE MÁQUINA Relembrando a nossa matéria de Arquitetura de Computadores, a arquitetura de Computadores se divide em vários níveis como já estudamos anteriormente. Ou seja: o Nível 0
PALAVRAS-CHAVE: Massas Nodulares, Classificação de Padrões, Redes Multi- Layer Perceptron.
1024 UMA ABORDAGEM BASEADA EM REDES PERCEPTRON MULTICAMADAS PARA A CLASSIFICAÇÃO DE MASSAS NODULARES EM IMAGENS MAMOGRÁFICAS Luan de Oliveira Moreira¹; Matheus Giovanni Pires² 1. Bolsista PROBIC, Graduando
Para entender como funciona um perceptron, vamos continuar considerando um perceptron com somente duas entradas, x 1 e x 2, e uma saída s.
Análise do Perceptron Para entender como funciona um perceptron, vamos continuar considerando um perceptron com somente duas entradas, x 1 e x 2, e uma saída s. O neurônio de saída tem limiar b, de maneira
Relatório de uma Aplicação de Redes Neurais
UNIVERSIDADE ESTADUAL DE MONTES CLAROS CENTRO DE CIÊNCIAS EXATAS E TECNOLÓGICAS DEPARTAMENTO DE CIÊNCIAS DA COMPUTACAÇÃO ESPECIALIZAÇÃO EM ENGENHARIA DE SISTEMAS DISCIPLINA: REDES NEURAIS PROFESSOR: MARCOS
Algoritmos: Lógica para desenvolvimento de programação de computadores. Autor: José Augusto Manzano. Capítulo 1 Abordagem Contextual
Algoritmos: Lógica para desenvolvimento de programação de computadores Autor: José Augusto Manzano Capítulo 1 Abordagem Contextual 1.1. Definições Básicas Raciocínio lógico depende de vários fatores para
Computadores de Programação (MAB353)
Computadores de Programação (MAB353) Aula 19: Visão geral sobre otimização de programas 06 de julho de 2010 1 2 3 Características esperadas dos programas O primeiro objetivo ao escrever programas de computador
Relatório Iniciação Científica
Relatório Iniciação Científica Ambientes Para Ensaios Computacionais no Ensino de Neurocomputação e Reconhecimento de Padrões Bolsa: Programa Ensinar com Pesquisa-Pró-Reitoria de Graduação Departamento:
UNIVERSIDADE FEDERAL DE SANTA CATARINA
UNIVERSIDADE FEDERAL DE SANTA CATARINA CIÊNCIAS DA COMPUTAÇÃO MÁQUINAS DE COMITÊ APLICADAS À FILTRAGEM DE SPAM Monografia submetida à UNIVERSIDADE FEDERAL DE SANTA CATARINA para a obtenção do grau de BACHAREL
5 Entrada e Saída de Dados:
5 Entrada e Saída de Dados: 5.1 - Arquitetura de Entrada e Saída: O sistema de entrada e saída de dados é o responsável pela ligação do sistema computacional com o mundo externo. Através de dispositivos
Introdução à Computação
Aspectos Importantes - Desenvolvimento de Software Motivação A economia de todos países dependem do uso de software. Cada vez mais, o controle dos processos tem sido feito por software. Atualmente, os
INTRODUÇÃO ÀS LINGUAGENS DE PROGRAMAÇÃO
Capítulo 1 INTRODUÇÃO ÀS LINGUAGENS DE PROGRAMAÇÃO 1.1 Histórico de Linguagens de Programação Para um computador executar uma dada tarefa é necessário que se informe a ele, de uma maneira clara, como ele
Tais operações podem utilizar um (operações unárias) ou dois (operações binárias) valores.
Tais operações podem utilizar um (operações unárias) ou dois (operações binárias) valores. 7.3.1.2 Registradores: São pequenas unidades de memória, implementadas na CPU, com as seguintes características:
Projeto Pedagógico do Bacharelado em Ciência da Computação. Comissão de Curso e NDE do BCC
Projeto Pedagógico do Bacharelado em Ciência da Computação Comissão de Curso e NDE do BCC Fevereiro de 2015 Situação Legal do Curso Criação: Resolução CONSU no. 43, de 04/07/2007. Autorização: Portaria
3. Arquitetura Básica do Computador
3. Arquitetura Básica do Computador 3.1. Modelo de Von Neumann Dar-me-eis um grão de trigo pela primeira casa do tabuleiro; dois pela segunda, quatro pela terceira, oito pela quarta, e assim dobrando sucessivamente,
As fases na resolução de um problema real podem, de modo geral, ser colocadas na seguinte ordem:
1 As notas de aula que se seguem são uma compilação dos textos relacionados na bibliografia e não têm a intenção de substituir o livro-texto, nem qualquer outra bibliografia. Introdução O Cálculo Numérico
Informática. Prof. Macêdo Firmino. Macêdo Firmino (IFRN) Informática Setembro de 2011 1 / 25
Informática Prof. Macêdo Firmino Introdução a Informática Macêdo Firmino (IFRN) Informática Setembro de 2011 1 / 25 O Que é um Computador? É uma máquina composta de um conjunto de partes eletrônicas e
Organização e Arquitetura de Computadores I. de Computadores
Universidade Federal de Campina Grande Unidade Acadêmica de Sistemas e Computação Curso de Bacharelado em Ciência da Computação Organização e Arquitetura de Computadores I Organização Básica B de Computadores
2 Diagrama de Caso de Uso
Unified Modeling Language (UML) Universidade Federal do Maranhão UFMA Pós Graduação de Engenharia de Eletricidade Grupo de Computação Assunto: Diagrama de Caso de Uso (Use Case) Autoria:Aristófanes Corrêa
Unidade 13: Paralelismo:
Arquitetura e Organização de Computadores 1 Unidade 13: Paralelismo: SMP e Processamento Vetorial Prof. Daniel Caetano Objetivo: Apresentar os conceitos fundamentais da arquitetura SMP e alguns detalhes
Disciplina: Introdução à Informática Profª Érica Barcelos
Disciplina: Introdução à Informática Profª Érica Barcelos CAPÍTULO 4 1. ARQUITETURA DO COMPUTADOR- HARDWARE Todos os componentes físicos constituídos de circuitos eletrônicos interligados são chamados
Paradigmas da IA. Eixos centrais (das diferenças)
Paradigmas da IA Paradigmas da IA Simbólico: metáfora lingüística/lógica Sistemas de produção Conexionista: metáfora cérebro Redes neurais Evolucionista: metáfora teoria da evolução natural Algoritmos
TRANSMISSÃO DE DADOS Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com
- Aula 5-1. A CAMADA DE TRANSPORTE Parte 1 Responsável pela movimentação de dados, de forma eficiente e confiável, entre processos em execução nos equipamentos conectados a uma rede de computadores, independentemente
OBJETIVOS: CARGA HORÁRIA MÍNIMA CRONOGRAMA:
ESTUDO DIRIGIDO COMPONENTE CURRICULAR: Controle de Processos e Instrumentação PROFESSOR: Dorival Rosa Brito ESTUDO DIRIGIDO: Métodos de Determinação de Parâmetros de Processos APRESENTAÇÃO: O rápido desenvolvimento
FUNDAÇÃO DE APOIO AO ENSINO TÉCNICO DO ESTADO DO RIO DE JANEIRO FAETERJ Petrópolis Área de Extensão PLANO DE CURSO
FUNDAÇÃO DE APOIO AO ENINO TÉCNICO DO ETADO DO RIO DE JANEIRO PLANO DE CURO 1. Identificação Curso de Extensão: INTRODUÇÃO AO ITEMA INTELIGENTE Professor Regente: José Carlos Tavares da ilva Carga Horária:
Placa Acessório Modem Impacta
manual do usuário Placa Acessório Modem Impacta Parabéns, você acaba de adquirir um produto com a qualidade e segurança Intelbras. A Placa Modem é um acessório que poderá ser utilizado em todas as centrais
Mestrado em Informática, tendo Inteligência Artificial como área de pesquisa.
André Montevecchi Graduado em Sistemas de Informação. Mestrado em Informática, tendo Inteligência Artificial como área de pesquisa. [email protected] 1 Agenda Introdução Teste de Turing Robótica
3 Metodologia de Previsão de Padrões de Falha
3 Metodologia de Previsão de Padrões de Falha Antes da ocorrência de uma falha em um equipamento, ele entra em um regime de operação diferente do regime nominal, como descrito em [8-11]. Para detectar
Protocolo em Rampa Manual de Referência Rápida
Protocolo em Rampa Manual de Referência Rápida 1 O que é o Protocolo em Rampa O protocolo em rampa é um protocolo para testes de esforço que não possui estágios. Nele o incremento da carga se dá de maneira
Capítulo 3. Avaliação de Desempenho. 3.1 Definição de Desempenho
20 Capítulo 3 Avaliação de Desempenho Este capítulo aborda como medir, informar e documentar aspectos relativos ao desempenho de um computador. Além disso, descreve os principais fatores que influenciam
FACULDADE PITÁGORAS DISCIPLINA: ARQUITETURA DE COMPUTADORES
FACULDADE PITÁGORAS DISCIPLINA: ARQUITETURA DE COMPUTADORES Prof. Ms. Carlos José Giudice dos Santos [email protected] www.oficinadapesquisa.com.br Conceito de Computador Um computador digital é
Árvores Binárias Balanceadas
Árvores Binárias Balanceadas Elisa Maria Pivetta Cantarelli Árvores Balanceadas Uma árvore é dita balanceada quando as suas subárvores à esquerda e à direita possuem a mesma altura. Todos os links vazios
AULA 1. Informática Básica. Gustavo Leitão. [email protected]. Disciplina: Professor: Email:
AULA 1 Disciplina: Informática Básica Professor: Gustavo Leitão Email: [email protected] Estudo de caso Empresa do ramo de seguros Presidência RH Financeiro Vendas e Marketing TI CRM Riscos Introdução
Capacidade = 512 x 300 x 20000 x 2 x 5 = 30.720.000.000 30,72 GB
Calculando a capacidade de disco: Capacidade = (# bytes/setor) x (méd. # setores/trilha) x (# trilhas/superfície) x (# superfícies/prato) x (# pratos/disco) Exemplo 01: 512 bytes/setor 300 setores/trilha
15 Computador, projeto e manufatura
A U A UL LA Computador, projeto e manufatura Um problema Depois de pronto o desenho de uma peça ou objeto, de que maneira ele é utilizado na fabricação? Parte da resposta está na Aula 2, que aborda as
PROCESSO DE DESENVOLVIMENTO DE SOFTWARE. Modelos de Processo de Desenvolvimento de Software
PROCESSO DE DESENVOLVIMENTO DE SOFTWARE Introdução Modelos de Processo de Desenvolvimento de Software Os modelos de processos de desenvolvimento de software surgiram pela necessidade de dar resposta às
A lógica de programação ajuda a facilitar o desenvolvimento dos futuros programas que você desenvolverá.
INTRODUÇÃO A lógica de programação é extremamente necessária para as pessoas que queiram trabalhar na área de programação, seja em qualquer linguagem de programação, como por exemplo: Pascal, Visual Basic,
Redes Neuronais. Redes neuronais artificiais. Redes neuronais artificiais. Redes neuronais artificiais
Redes neuronais artificiais Surgiram nos anos 40 com o objectivo de conhecer melhor o cérebro humano e emular o seu comportamento. Departamento de Matemática Universidade dos Açores Redes Neuronais Introdução
Ivan Guilhon Mitoso Rocha. As grandezas fundamentais que serão adotadas por nós daqui em frente:
Rumo ao ITA Física Análise Dimensional Ivan Guilhon Mitoso Rocha A análise dimensional é um assunto básico que estuda as grandezas físicas em geral, com respeito a suas unidades de medida. Como as grandezas
Roteamento e Comutação
Roteamento e Comutação Design de Rede Local Design Hierárquico Este design envolve a divisão da rede em camadas discretas. Cada camada fornece funções específicas que definem sua função dentro da rede
Sistemas Distribuídos
Sistemas Distribuídos Modelo Cliente-Servidor: Introdução aos tipos de servidores e clientes Prof. MSc. Hugo Souza Iniciando o módulo 03 da primeira unidade, iremos abordar sobre o Modelo Cliente-Servidor
Introdução ao Aplicativo de Programação LEGO MINDSTORMS Education EV3
Introdução ao Aplicativo de Programação LEGO MINDSTORMS Education EV3 A LEGO Education tem o prazer de trazer até você a edição para tablet do Software LEGO MINDSTORMS Education EV3 - um jeito divertido
Sistema de Computação
Sistema de Computação Máquinas multinível Nível 0 verdadeiro hardware da máquina, executando os programas em linguagem de máquina de nível 1 (portas lógicas); Nível 1 Composto por registrados e pela ALU
&XUVRGH,QWURGXomRDR (GLWRUGH3ODQLOKDV([FHO
Universidade Federal de Viçosa Departamento de Informática &XUVRGH,QWURGXomRDR (GLWRUGH3ODQLOKDV([FHO Flaviano Aguiar Liziane Santos Soares Jugurta Lisboa Filho (Orientador) PROJETO UNESC@LA Setembro de
Módulo 4. Construindo uma solução OLAP
Módulo 4. Construindo uma solução OLAP Objetivos Diferenciar as diversas formas de armazenamento Compreender o que é e como definir a porcentagem de agregação Conhecer a possibilidade da utilização de
MÓDULO 9 METODOLOGIAS DE DESENVOLVIMENTO DE SISTEMAS
MÓDULO 9 METODOLOGIAS DE DESENVOLVIMENTO DE SISTEMAS O termo metodologia não possui uma definição amplamente aceita, sendo entendido na maioria das vezes como um conjunto de passos e procedimentos que
[1] Na terceira sessão, analisamos o Perceptron de Múltiplas Camadas inclusive um problema típico como o XOR.
Deolinda M. P. Aguieiras de Lima Nilton Alves Jr. [email protected] [1] Resumo Este trabalho tem como finalidade servir de primeira leitura para aqueles alunos que desejam iniciar se no estudo de Redes Neurais.
ALGORITMOS PARTE 01. Fabricio de Sousa Pinto
ALGORITMOS PARTE 01 Fabricio de Sousa Pinto Algoritmos: Definição 2 É uma sequência de instruções finita e ordenada de forma lógica para a resolução de uma determinada tarefa ou problema. Algoritmos 3
1. Introdução... 2. 2. As origens da RNA... 3. 3. O nosso cérebro... 5. 3.1. Plasticidade e modulação sináptica... 5
Sumário 1. Introdução... 2 2. As origens da RNA... 3 3. O nosso cérebro... 5 3.1. Plasticidade e modulação sináptica... 5 4. As redes neurais artificiais... 7 4.1. Estrutura da RNA... 7 4.3. Modelos de
BC-0005 Bases Computacionais da Ciência. Modelagem e simulação
BC-0005 Bases Computacionais da Ciência Aula 8 Modelagem e simulação Santo André, julho de 2010 Roteiro da Aula Modelagem O que é um modelo? Tipos de modelos Simulação O que é? Como pode ser feita? Exercício:
BARRAMENTO DO SISTEMA
BARRAMENTO DO SISTEMA Memória Principal Processador Barramento local Memória cachê/ ponte Barramento de sistema SCSI FireWire Dispositivo gráfico Controlador de vídeo Rede Local Barramento de alta velocidade
Arquitetura dos Sistemas de Informação Distribuídos
Arquitetura dos Sistemas de Informação Distribuídos Quando se projeta um sistema cuja utilização é destinada a ser feita em ambientes do mundo real, projeções devem ser feitas para que o sistema possa
Algoritmos Estruturas Seqüenciais. José Gustavo de Souza Paiva
Algoritmos Estruturas Seqüenciais José Gustavo de Souza Paiva 1 Introdução Objetivo básico da computação auxiliar os seres humanos em trabalhos repetitivos e braçais, diminuindo i i d esforços e economizando
Processamento de Imagem. Prof. MSc. André Yoshimi Kusumoto [email protected]
Processamento de Imagem Prof. MSc. André Yoshimi Kusumoto [email protected] Visão Computacional Não existe um consenso entre os autores sobre o correto escopo do processamento de imagens, a
Aula 4 Pseudocódigo Tipos de Dados, Expressões e Variáveis
1. TIPOS DE DADOS Todo o trabalho realizado por um computador é baseado na manipulação das informações contidas em sua memória. Estas informações podem ser classificadas em dois tipos: As instruções, que
Redes de Computadores. Prof. Késsia Marchi
Redes de Computadores Prof. Késsia Marchi Redes de Computadores Redes de Computadores Possibilita a conexão entre vários computadores Troca de informação Acesso de múltiplos usuários Comunicação de dados
TÓPICOS AVANÇADOS EM ENGENHARIA DE SOFTWARE
TÓPICOS AVANÇADOS EM ENGENHARIA DE SOFTWARE Engenharia de Computação Professor: Rosalvo Ferreira de Oliveira Neto Estudos Comparativos Recentes - Behavior Scoring Roteiro Objetivo Critérios de Avaliação
Unidade Central de Processamento (CPU) Processador. Renan Manola Introdução ao Computador 2010/01
Unidade Central de Processamento (CPU) Processador Renan Manola Introdução ao Computador 2010/01 Componentes de um Computador (1) Computador Eletrônico Digital É um sistema composto por: Memória Principal
