Redes Neurais Artificiais para Controle & Automação

Tamanho: px
Começar a partir da página:

Download "Redes Neurais Artificiais para Controle & Automação"

Transcrição

1 Redes Neurais Artificiais para Controle & Automação Prof. Marcelo Ricardo Stemmer

2 Sumário Introdução e Breve Histórico das RNAs Algumas Aplicações O Neurônio Biológico e o Neurônio Artificial Redes Neurais Multicamadas O Treinamento da RNA Redes Neurais em Identificação e Controle de Processos Redes Neurais em Robótica Redes Neurais em Visão Computacional Comentários Finais

3 Introdução Década de 50: duas abordagens concorrentes em IA Conexionista (neural, paralela) x Simbolista (clássica, seqüencial). Objetivo da linha Conexionista: investigar possibilidade de simular comportamentos inteligentes através de modelos da estrutura e funcionamento do cérebro humano. Linhas nasceram praticamente juntas: encontro no Darthmouth College de 956 já abordou RNA. Técnicas simbolistas tiveram preferência no início da IA (computadores disponíveis inadequados para abordagem conexionista).

4 Introdução Retomada de interesse pela abordagem Conexionista na década de 980, devido a: melhores conhecimentos da estrutura real do cérebro e dos neurônios (neurologia); melhores algoritmos de treinamento (backpropagation introduzido em 985); disponibilidade de hardware computacional mais adequado (inclusive paralelo).

5 Breve Histórico das RNAs 943: Warren McCullog (neuro-anatomista) e Walter Pitts (matemático) propõem modelo binário para o neurônio. Não havia treinamento. 949: Donald Hebb propõe principio de aprendizado em sistemas nervosos, no qual a conexão entre 2 neurônios é reforçada sempre que ambos estão ativos ao mesmo tempo. 958: Frank Rosenblatt propõe uma rede de neurônios com valores contínuos e treinamento baseado em Hebb, denominada Perceptron. 960: Widrow e Hoff propõem as rede ADALINE (Adaptive Linear Element) e MADALINE (Multiple ADALINE) e uma nova regra de aprendizado chamada Regra Delta (Método Gradiente). 969: Minsky e Pappert (MIT) publicam o livro Perceptrons, com dura critica as RNA e expondo as limitações dos Perceptrons (como a impossibilidade de aprender a função XOR ou treinar redes multicamadas). Interesse pelas RNA diminui muito.

6 Breve Histórico das RNAs Década de 70: Kohonen constrói memória associativa. Grossberg cria ART (Adaptive Resonance Theory). 982: Hopfield introduz redes recorrentes. 985: Hinton introduz máquina de Boltzmann. 985: Rummelhart, Hinton e Williams criam algoritmo Error Backpropagation (Regra Delta Generalizada) e modelo de neurônio com função de ativação não linear. 986: Rummelhart e McClelland publicam o livro Parallel Distributed Processing. Inicio de nova era de pesquisas em RNA.

7 Algumas Aplicações Eng. Civil: Previsão da bolsa de valores; Previsão de falência de bancos; Modelagem / Identificação; Controle Adaptativo e Não-Linear; Otimização de Parâmetros; Robótica: Inteligência do Robô (tomada decisão); Planejamento da Trajetória; Controle Força / seguimento trajetória. Previsão de Produtividade da Lavoura; Eng. de Produção: Reconhecimento de Fala; Reconhecimento do Locutor (voz); Agricultura: Analisador Sintático; Compreensão de Texto; Corretor Gramatical; Processamento de Voz e Fala: Análise de Batimentos Cardíacos; Diagnóstico Médico da Tuberculose; Detecção de Eventos Epiléticos; Linguagem Natural: Previsão do Tempo; Biomédica: Controle de Processos: Financeira: Processamento de sinais; Previsão de carga elétrica; Diagnóstico de falhas; Meteorologia: Eng. Elétrica: Avaliação da Condição de Pavimentos; Gerenciamento da Construção; Previsão da Resistência Mecânica do Concreto; Otimização de Processos de Fabricação; Monitoramento de Processos; Visão Computacional

8 Por que usar RNA? RNA interessante nestas e outras aplicações porque: é capaz de aprender através de exemplos; é capaz de generalizar (reconhecer instâncias similares aos exemplos, mas nunca apresentadas); apresenta elevada imunidade ao ruído (desempenho não colapsa na presença de informações falsas ou ausentes); tem bom desempenho em problemas mal definidos (onde não existe conhecimento de modelos matemáticos para os sistemas).

9 O Neurônio Biológico Dendrites = entradas Axônio = saída Sinapse = interface I/O

10 O Neurônio Biológico Sinapse transfere impulso eletroquímico para dendrito de outro neurônio através de uma sinapse se somatório dos sinais de entrada ultrapassa determinado limiar.

11 A Rede Neural Humana Cérebro: contém aprox. 0 neurônios; 05 interconexões; vias de transmissão com ou mais metros; Peso: ~,5 Kg (2% peso corpo); Consome 20 a 30% da energia do organismo; Córtex:» Rato (5 cm3), Chimpanzé (500 cm3);» Homem (2000 cm3);.

12 O Neurônio Artificial Neurônio Artificial pretende imitar características de primeira ordem do neurônio biológico: net j = x w i j pred (i ) F = Função de Ativação não linear e limitada; Sinapse pode ser excitadora (w > 0 ) ou inibidora (w < 0) Se o peso é zero, não há conexão. ij θ j

13 O Neurônio Artificial Exemplo de Função de Ativação: F(net) = /(+e-net) Sigmóide muito usada pois é derivável e monótona. Degrau Sigmóide Tangente hiperbólica Função da base radial (RBF)

14 Redes Neurais Multicamadas Um único neurônio pode realizar funções de detecção de padrões muito simples. O poder de computação neural vem da conexão dos neurônios dentro de uma rede. Topologias de rede: redes Recorrentes (não há direção privilegiada para propagação da informação); redes Feedforward (sinal vai sempre das entradas para as saídas).

15 Redes Neurais Multicamadas A rede mais simples é formada por um grupo de neurônios arranjados em uma camada (ex.: perceptron).

16 Redes Neurais Multicamadas Redes multicamadas feedforward podem ser formadas colocando em cascata redes de camada; a saída de uma camada providência a entrada para a camada subseqüente.

17 Classificação de RNAs Redes Neurais Artificiais Feed-forward Linear Adaline Madaline supervised Backprop quickprop rprop reinforcement Recorrentes Não linear Supervised MLP RBF Unsupervised (self-organizing) Bolzmann machine - fb Simulated annealing Unsupervised (self-organizing) híbrido Hebbian counterprop Hopfield Model Hebb Oja Sanger competitive Associative Bi-directional Memory (BAM) - fb competitive Adaptive Resonance Theory (ART) - lat.+delay Kohonen self organizing feature maps (SOM) - lat.

18 O Treinamento da RNA Treinar rede neural: ajustar pesos das várias camadas de forma que a saída coincida com valor desejado para uma dada entrada. O treinamento pode ser: supervisionado (com um professor ); não supervisionado ( auto-organizado ).

19 Treinamento Supervisionado O treinamento supervisionado exige um vetor de entrada com um vetor alvo representando a saída desejada. Juntos, são chamados par de treinamento. I D I 4 D I I I Rede Neural D Supervisor 3 D 2 D Conjunto de Exemplos O

20 Treinamento Não Supervisionado No treinamento não supervisionado, o conjunto de treinamento consiste somente de vetores de entrada. O algoritmo de treinamento modifica os pesos da rede para produzir um vetor de saída consistente com a entrada. A aplicação de um vetor de treinamento ou um vetor que é suficientemente similar a ele na entrada irá produzir o mesmo padrão de saída (Autoassociação). Isto permite reconstituir entradas deturpadas (útil em processamento de sinais, filtragem, etc.). I 4 I 3 I I Rede Neural 2 I Conjunto de Exemplos Auto-ajuste O

21 O Treinamento da RNA Seja um neurônio dado por: Saída = - se resultado <= 0 Saída = + se resultado > 0 Processamento (ex. Soma) Ponderação (entrada x peso) Entrada (- ou +)... e estabelecendo como convenção: Valor + = ativo Valor - = inativo

22 O Treinamento da RNA Para a situação abaixo: Nadar Bom Humor Guarda-Chuva Saída Soma Pesos Entrada Saída Soma Pesos Entrada Bom Tempo Tempo Instável Chuva deseja-se ajustar os pesos de forma que: entrada "bom tempo" ativa => saídas "nadar" e "bom humor" ativas entrada "Tempo instável" ativa => saídas "bom humor" e "guardachuva" ativas entrada "chuva" ativa => saída "guarda-chuva" ativa

23 O Treinamento da RNA Possível solução: ajustar pesos manualmente até que a saída coincida com a desejada para os valores dados de entrada. Solução melhor: definir uma regra de ajuste dos pesos (regra de aprendizado). Hipótese de Hebb: "A ligação entre dois neurônios é reforçada se ambos são simultaneamente ativados por um dado estímulo de entrada". Formulação de uma Regra simples baseada em Hebb: "Incrementar em o peso de ligação entre neurônio i e neurônio j quando o neurônio i estiver ativado e o estado desejado do neurônio j seja ativo"

24 O Treinamento da RNA Algoritmo de Treinamento da Rede:. definir a saída desejada para cada conjunto de entradas; 2. definir valores iniciais aleatórios para cada peso; 3. colocar um conjunto de valores na entrada e calcular a saída; 4. corrigir os pesos seguindo a regra de Hebb até obter a saída desejada para aquela entrada; 5. voltar ao passo 3 (valor seguinte de entrada).

25 O Treinamento da RNA Condição inicial: entrada [,-,-]; saída desejada [,,-] Nadar Bom Humor Nadar Bom Humor Bom Tempo Tempo Instável Guarda-Chuva desejado obtido Guarda-Chuva Saída Soma Pesos Entrada Saída Soma Pesos Entrada Chuva

26 O Treinamento da RNA Primeiro ajuste de pesos: Nadar Bom Humor Guarda-Chuva desejado Nadar Bom Humor Guarda-Chuva obtido Bom Tempo Tempo Instável Saída Soma Pesos Entrada Saída Soma Pesos Entrada Chuva

27 O Treinamento da RNA Segundo ajuste de pesos: resultado alcançado! Nadar Bom Humor Bom Tempo Tempo Instável Guarda-Chuva Saída Soma Pesos Entrada Saída Soma Pesos Entrada Chuva

28 O Treinamento da RNA A rede aparenta ter "aprendido" corretamente! Problemas se fornecida uma entrada para a qual a rede não foi treinada. Exemplo: todas as 3 entradas em (ilógico para o caso) resulta em todas as saídas em (o que também é ilógico!). Podemos incluir mais um par de treinamento: para a entrada [,,] desejamos saída [-,-,-]. Com a regra de treinamento em uso, este novo par nunca será aprendido! Isto se deve a simplicidade extrema da regra de aprendizado utilizada.

29 O Treinamento da RNA Podemos melhorar nossa regra de aprendizado, introduzindo a noção de erro (Regra Delta de Widrow e Hoff): Erro = (Estado desejado da saída - Estado obtido com pesos atuais) Novo peso = peso velho + (Fator de Aprendizado x Erro x Entrada)

30 O Treinamento da RNA Partindo dos pesos obtidos anteriormente e treinando para o novo par com a regra melhorada e com FA= 0,5: 3 Nadar Nadar Bom Humor Bom Humor desejado Guarda-Chuva Guarda-Chuva 0 0 obtido Saída Soma Pesos Entrada Para todos os neurônios temos: Bom Tempo Tempo Instável Chuva Saída Soma Pesos Entrada E =(--) = -2 W i+= W i+(-2x0,5x)

31 O Treinamento da RNA Após o primeiro ajuste de pesos temos E=0 para todas as saídas (pesos não mudam mais daqui para frente = fim treinamento). Aprendemos novo par! Terá a rede esquecido o que aprendeu no par anterior? Nadar Bom Humor Guarda-Chuva Saída Soma Pesos Entrada Saída Soma Pesos Entrada Bom Tempo Tempo Instável Chuva

32 O Treinamento da RNA Resultado para entrada = "bom tempo": Nadar Bom Humor Saída Soma Pesos Entrada Saída Soma Pesos Entrada Bom Tempo Tempo Instável Guarda-Chuva Chuva

33 Treinamento e Topologia A rede usada no exemplo anterior tem uma camada de entrada e uma de saída (como perceptron de Rosenblatt ou ADALINE de Widrow). Sabemos qual o valor de saída desejado, de modo que podemos calcular facilmente o erro para a última camada. Este tipo de rede só pode tratar problemas linearmente separáveis. Quanto maior o número de entradas, maior é a família de funções não linearmente separáveis. x2 AND x2 OR (,) x2 (0,) (0,) x (0,0) (,) (,) (0,) (,0) XOR x x (0,0) (,0) (0,0) (,0)

34 Treinamento e Topologia Solução para o XOR: E (x.x2) x y OU (x.x2)+(x.x2) x2 Fan-out E (x.x2)

35 Treinamento e Topologia Pesos e thresholds para gerar 2 retas separando casos no XOR

36 Treinamento e Topologia Outra solução para o XOR (para entradas + e -): (Setas indicam pesos e círculos os valores de threshold)

37 Treinamento e Topologia Para que uma RNA aprenda o XOR: Precisamos pelo menos uma camada intermediária; Precisamos de uma função de ativação não linear, que pode até ser o degrau, como no exemplo anterior. Problema: como calcular o erro nas camadas intermediárias?

38 Treinamento e Topologia Redes com múltiplas camadas (também chamadas redes MLP = Multi-Layer Perceptron) podem tratar com dados não linearmente separáveis. Para uma rede com 3 camadas e entradas 2D, pode-se dizer que: Cada nodo da primeira camada traça retas (ou hiperplanos, para mais dimensões) no espaço de padrões de treinamento; Cada nodo da segunda camada combina as retas (hiperplanos) dos nodos da primeira camada formando regiões convexas; Cada nodo da camada de saída combina as regiões da camada anterior, formando regiões abstratas que separam os padrões de entrada em classes.

39 Treinamento e Topologia Cybenko mostrou que: Uma camada intermediária é suficiente para aproximar qualquer função contínua; Duas camadas intermediárias são suficientes para aproximar qualquer função matemática. O uso de muitas camadas intermediarias não é recomendável, pois as camadas intermediárias trabalham com uma estimativa do erro, que se torna pior a cada retropropagação (só se sabe o valor exato do erro na última camada).

40 Treinamento e Topologia O número de neurônios da camada de entrada e de saída é em geral dado pela aplicação. Para as camadas intermediárias: Geralmente o número de neurônios é determinado de forma empírica; O número de conexões deve ser bem menor do que o número de exemplos para evitar overfitting (memorização dos padrões de treinamento sem extração de características gerais que permitem generalização); O número de neurônios depende do número de exemplos, da quantidade de ruído, da complexidade da função a ser aprendida e da distribuição estatística dos dados de treinamento.

41 Treinamento e Função de Ativação Usamos no exemplo anterior uma função de ativação em degrau (threshold), que é não linear. Com ela, a avaliação do erro para camadas intermediárias seria complexa, pois os nodos não sabem se suas respostas estão próximas ou não do valor desejado. Se usarmos funções de ativação lineares, o cálculo do erro nas camadas escondidas é fácil, mas pode ser demonstrado que uma rede MLP com qualquer número de camadas equivale a uma rede de uma única camada: y = (x.wa).wb Se existe Wc = Wa.Wb Então y = x.wc A função de ativação para redes MLP deve ser não linear, contínua e derivável (para cálculo do gradiente, como veremos a seguir).

42 Error Backpropagation Se a rede tiver uma ou mais camadas escondidas (intermediárias), como calcular o erro para estas camadas? Algoritmo de treinamento mais usado: "Error Backpropagation" (retropropagação do erro): Modelo Yd + U Rede Neural Yrn E

43 Error Backpropagation Algoritmo Backpropagation (simplificado): Passo : inicializar pesos com valores aleatórios pequenos; Passo 2: alimentar rede com um padrão de treinamento U e vetor de saída desejado Yd; Passo 3: calcular saída da rede usando valores atuais dos pesos: Y=F(U.W); Passo 4: calcular erro entre saída produzida e desejada (YYd); Passo 5: corrigir pesos de todas as retropropagação: Wi+ = Wi - η.de(w)/dw para W = Wi camadas por Passo 6: testar condição de parada ( E(k) < Emin): se não atendida, voltar ao passo 3.

44 Error Backpropagation Introduzido em 985 por Rummelhart, Hinton e Williams Generalização da Regra Delta (Widrow e Hoff) Algoritmo de gradiente descendente para otimização não linear Duas fases principais: Forward: são apresentados vetores de entrada e calculadas as saídas; Backward: o erro entre a saída obtida na fase anterior e a saída desejada é retropropagado para corrigir os pesos.

45 Error Backpropagation Aprendizado por lote (batch) ou época (epoch): algoritmo procura minimizar uma função de erro global: Onde: E é o erro médio quadrático p é o número de padrões apresentados à rede n é o número de neurônios de saída di é a i-ésima saída desejada yi é a i-ésima saída gerada pela rede

46 Error Backpropagation Aprendizado por padrão (pattern): a minimização da função de erro para cada padrão individual levará à minimização de E. Assim, o erro por padrão Ep pode ser definido por: Esta função define uma superfície de erro em função dos pesos da rede.

47 Error Backpropagation Erro médio quadrático em função dos pesos (supondo somente 2 pesos)

48 Error Backpropagation Objetivo do algoritmo: obter valores dos pesos que apresentam menor valor de E ou Ep (mínimo global) Variação do peso deve ser feita proporcionalmente ao negativo do gradiente do erro em relação aos pesos da rede: Onde: W ji é o peso da saída j para a entrada i (A proporcionalidade pode ser substituída por igualdade introduzindo o termo η, que é a taxa de aprendizado)

49 Error Backpropagation É necessário definir como cada peso de cada nodo deve ser ajustado de forma a minimizar o erro gerado pela rede. Utilizando a regra da cadeia sobre a equação anterior, temos: Onde:

50 Error Backpropagation A segunda derivada é dada por: A primeira derivada mede o erro do nodo j, sendo geralmente chamada de δj:

51 Error Backpropagation Esta derivada também pode ser calculada pela regra da cadeia: A segunda derivada nesta última equação é dada por: Por esta razão, é importante que a função de ativação seja derivável!

52 Error Backpropagation A primeira derivada depende da camada onde o nodo se encontra. Se for um nodo da última camada (saída), o erro pode ser facilmente definido como: Esta é a mesma fórmula da regra delta original, como seria de se esperar!

53 Error Backpropagation Substituindo este dois termos na equação original, temos: Esta equação fornece o erro para cada nodo da última camada.

54 Error Backpropagation Se o nodo j não for um nodo de saída, usamos a regra da cadeia novamente para escrever: Onde:

55 Error Backpropagation Substituindo novamente na equação original, obtemos para as camadas intermediárias: Esta equação fornece o erro da cada nodo das camadas intermediárias.

56 Error Backpropagation Podemos generalizar a fórmula de ajuste de pesos como: Esta fórmula também pode ser escrita de forma recursiva como: Onde Para nodos da camada de saída Para nodos de camadas intermediárias

57 Error Backpropagation Se a FA é a sigmóide: A derivada fica simples:

58 Error Backpropagation O algoritmo procura ajustar os pesos de modo que eles correspondam às coordenadas dos pontos mais baixos da superfície de erro.

59 Error Backpropagation xp xp 2. aplique o vetor das entradas xp = às unidades de entrada... xpn 2. calcule os valores net para as unidades da camada escondida N net = w hji.xpi +Θhj h pj i = 3. calcule as saídas da camada escondida i pj = f jh(net hpj ) 4. calcule os valores net para as unidades da camada de saída net o pk L = wkjo.i pj +Θko j =

60 Error Backpropagation 5. calcule as saídas da camada de saída o pk = f ko (net opk ) 6. calcule o erro para as unidades da camada de saída δpko =( y pk o pk ) f ko (net opk ) 7. calcule o erro para as unidades da camada escondida δpjh = f jh (net hpj ). δpko.wkjo k

61 Error Backpropagation 8. atualize os pesos da camada de saída o wkjo (t +) =wkjo (t ) +η.δpk.i pj 9. atualize os pesos da camada escondida w hji (t +) =whji (t ) +η.δpjh.xi 0. calcule o erro total para checar a condição de parada do algoritmo M 2 E p = δpk 2 k = Se Ep for menor do que um dado valor, o algoritmo é repetido para o próximo vetor de entrada. Senão, retorna-se ao passo 2 (mantendo-se o mesmo vetor de entrada).

62 Error Backpropagation i j xp fj wji xp2 k i pj = f jh(net hpj ) fk o pk = f ko (net opk ) wkj N L net hpj = w hji.xpi + Θ hj net opk = wkjo.i pj + Θko i = j = xpn whji (t + ) = whji (t ) + η.δ pjh.xi input o wkjo (t + ) = wkjo (t ) + η.δ pk.i pj hidden δ = f (net ). δ h pj h j h pj output o pk o kj.w o δ pk = ( y pk o pk ) f ko (net opk ) k Ep = M 2 δ pk 2 k =

63 Error Backpropagation Influência da taxa de aprendizado η: Seja E(w) = w2 Achar mínima (obviamente em w=0) partindo de w = w(k+) = w(k) η.2.w(k)

64 Error Backpropagation Problemas com Backpropagation: Baixa velocidade de convergência quando próximo a um mínimo da função de erro Pode convergir para um mínimo local da função de erro

65 Outros Algoritmos de Treinamento Backpropagation com Momentum: introduz termo μ na equação, para acelerar convergência RProp (Resilient Propagation): baseado somente no sinal do gradiente da função de erro para atualização dos pesos. Convergência mais rápida. Algoritmos Genéticos: podem ser usados para treinar RNA (genes são os pesos, representados como números reais). Tende a encontrar mínimo global.

66 Outros Algoritmos de Treinamento ABPropagation (Adaptive Backpropagation): taxa de aprendizado não é fixa, mas função do erro e do gradiente do erro. Sempre trabalha em modo batch. Produz aceleração na convergência. Quickpropagation (Fahlman, 988): aproxima curva de erro para cada peso por uma parábola com concavidade voltada para cima. Equação de modificação dos pesos dada por:

67 Modelos de RNA Modelo Neural Principais Aplicações Pontos Fortes Pontos Fracos Perceptrons Reconhecimento de caracteres. Rede neural mais antiga. Não reconhece padrões complexos; sensível a mudanças. MLP com Backpropagation Larga aplicação simples e eficiente Treinamento supervisionado requer exemplos abundantes Counterpropagation Reconhecimento de padrões, análise estatística. Rapidez de treinamento Grande número de neurônios e conexões (topologia complexa) Hopfield Recuperação de dados e fragmentos de imagens. Implementação em larga escala. Sem aprendizado, os pesos devem ser setados. Bidirectional Associative Memories (BAM) Reconhecimento de padrões. Estável Precisa muitos PE's para armazenar poucos padrões

68 Aplicações I Identificação e Controle de Processos

69 Redes Neurais em Controle Primeiras aplicações: década de 60. Vantagens quando o processo: é difícil de modelar; tem não linearidades; sofre alteração de parâmetros com o tempo. Algumas possíveis aplicações de interesse são: Identificação Controle» Adaptativo» Robusto» Multivariável» Robótica (Posição, Trajetória, Força, Flexibilidades, etc.)

70 Quando Usar RNA?

71 Identificação Rede aprende a imitar mapeamento de E/S do processo (modelo direto ou inverso). O treinamento é concluído quando em(k) (erro de modelo) é menor que um valor especificado. RNI d u(k-) ym(k) em(k) u(k) G(s) y(k)

72 Controle Controle com RNA segue alguns esquemas básicos (e muitas variantes): Controle supervisionado Controle pelo Modelo Interno Controle Direto Inverso e Controle Inverso Feedforward Controle Adaptativo RNA pode ainda ser usada em conjunto com outros métodos de controle: Sistemas Neuro-Fuzzy, Neuro-Genéticos Sistemas híbridos RNA + convencional

73 Controle Supervisionado RNA pode reproduzir comportamento de um operador humano Widrow e Smith usaram esquema para pendulo invertido em 964

74 Controle Supervisionado Idéia básica: fazer rede aprender uma lei de controle existente. Passo - treinar rede para reproduzir comportamento de um controlador qualquer: Lei de controle (p.ex. PID) Yd Processo + Rede Neural Controladora - E Yp

75 Controle Supervisionado Passo 2 - operação normal: RNA dentro da malha fechada Yd Rede Neural Controladora Yp Processo Resultados: desempenho igual ao da lei de controle.

76 Controle Supervisionado Variante onde RNA fica em malha aberta RNA aprende modelo inverso, mesmo se sistema instável em malha aberta

77 Controle pelo Modelo Interno Internal Model Control (IMC): Hunt e Sbarbaro, 99 Passo - treinar rede identificadora com modelo direto da planta Passo 2 - treinar rede controladora com modelo inverso da planta Controlador e Identificador tratados como uma só rede multicamadas, onde pesos da parte identificadora são fixos. Yd Rede Neural Controladora Processo Rede Neural Identificadora + - Yp Ym

78 Controle pelo Modelo Interno Passo 3 - operação normal (IMC): só funciona se sistema é estável em malha aberta Yd Rede Neural Controladora Yp Processo + Rede Neural Identificadora - Ym

79 Controle Direto Inverso RNA com modelo inverso colocada em série com processo, de modo a gerar produto em cascata =

80 Esquemas Adaptativos - I O erro de modelo é retropropagado através de uma RNI, sem alterar seus pesos, mas ajustando os pesos da RNA. Quando em(k) fica menor que um valor especificado, os pesos da RNA são copiados na RNC, atualizando o controlador. I learn O u'(k) I2 d u(k-) RNA x(k) RNI u(k) RNC d y(k-) ym(k) em(k) G(s) y(k)

81 Esquemas Adaptativos - II I I2 learn O u'(k) RNA x(k) u(k) RNC G(s) y(k) d y(k-) e(k) Os pesos da RNA são copiados para a RNC quando o erro de treinamento fica abaixo de uma valor especificado.

82 Controle Híbrido RNA opera junto com controlador convencional

83 Aplicações II Robótica

84 Comparação de Performance entre Controladores Clássicos e um Controlador Torque Computado Neural Aplicados ao Robô PUMA 560 Marcelo R. Stemmer UFSC / EEL / LCMI C.P 476 CEP Florianópolis - SC marcelo@lcmi.ufsc.br Edson R. de Pieri UFSC / EEL / LCMI C.P 476 CEP Florianópolis - SC edson@lcmi.ufsc.br Fábio A. Pires Borges UFSC / EEL / LCMI R. Almirante Barroso, 424 CEP Pelotas - RS borges@pool.poolps.com.br

85 Introdução Limitações dos controladores clássicos usados em robótica: controladores Junta por junta PD e PID, no rastreamento de trajetória, possuem erro mínimo limitado por não levarem em conta as não linearidades típicas do modelo de um robô manipulador controladores tipo Torque Computado tentam levar em conta estas não linearidades, mas esbarram na dificuldade de se obter uma perfeita representação do modelo da dinâmica inversa do robô. As Redes Neurais constituem uma alternativa para o controle de robôs manipuladores, pois nos permite representar com maior precisão o modelo da dinâmica inversa do robô.

86 Introdução Vamos comparar a performance de: Controladores clássicos junta por junta, PD e PID; Controlador tipo torque computado, onde a dinâmica inversa do robô é obtida treinando-se uma Rede Neural. Sistema é um modelo simplificado de um robô manipulador do tipo PUMA 560, planar, com dois graus de liberdade.

87 O Robô Manipulador O Robô utilizado é o PUMA 560, com seis graus de liberdade.

88 O Robô Manipulador Para simplificar a análise e obter-se um modelo mais fácil de ser aplicado em simulações computacionais, toma-se o segundo e o terceiro elos do robô, considerando estáticos os demais elos e considerando o efetuador como uma massa uniforme na extremidade do terceiro elo. Obtêm-se um robô planar (movimentos em duas dimensões), de dois graus de liberdade (Juntas 2 e 3).

89 Modelo Matemático do Robô Considerando que as juntas são acionadas por motores DC e desprezando a flexibilidade nas transmissões (modelo rígido), tem-se: Equações do motor : V = L I + R I + K e q K m I = J q + τ () e (2) Equação do Robô : () (2) V: Tensões de entrada na armadura dos motores. J: Matriz das inércia dos rotores dos motores. q + F q + G(q) (3) τ = D(q) q + C(q,q) Ke: Matriz das constantes de tensões induzidas nos motores. Km: Matriz das constantes mecânicas dos motores. Sendo : Kmi = Kmi Ni Kei = Kei Ni R: Matriz das resistências das armaduras dos motores. L: Matriz das indutâncias nas armaduras dos motores. F : Torques devido ao atrito viscoso. τ : Torques totais nas juntas do robô. q : ângulos das juntas do robô. N: Matriz das relações de transmissão das engrenagens. G(q) : Torques Gravitacionais. ) : Torques Centrífugos e de Coriólis. C(q, q

90 Controladores a comparar Controlador PD: τ = K p e + Kv e

91 Controladores a comparar Controlador PID: t τ = K p e + K v e + K i e(s) ds e = qd q 0

92 Controladores a comparar Torque Computado: -Aplicação da técnica Feedback Linearization, que consiste do cancelamento das não-linearidades de tal forma que o sistema dinâmico em malha fechada tenha um comportamento linear. -Lei de controle: q) d - u) + C(q, q + F q + G(q) τ = D(q) (q -Considerando: D ( q ) D ( q ) C ( q, q ) C ( q, q ) F F G (q ) G ( q ) -Substituindo a lei de controle acima na equação do robô, obtemos: e = u -O sistema em malha fechada é linear e representado por um conjunto de n integradores duplos desacoplados. -A entrada u deve ser escolhida de tal forma a obter uma resposta criticamente amortecida. -As opções típicas para u são os controladores PD e PID.

93 Controladores a comparar Torque Computado Neural: - o controlador tipo torque computado depende da obtenção da dinâmica inversa do robô => difícil. - RNA utilizadas para a obtenção de um modelo que represente a dinâmica inversa do robô manipulador. - As entradas da rede serão as posições e velocidades desejadas para as juntas e a aceleração desejada menos uma entrada u. A entrada u é resultado da operação do controlador linear.

94 Arquitetura da RNA Utilizado algoritmo de treinamento Backpropagation, com treinamento exclusivamente Off-Line. Modelo do robô implementado em Simnon Vetores de treinamento obtidos com um controlador clássico junta por junta controlando o robô manipulador durante o rastreamento de uma determinada trajetória representada por um polinômio de terceira ordem. Tomou-se como pares de treinamento as tensões de entrada nos motores de acionamento das juntas do robô (saídas da rede), e os respectivos valores de posição, velocidade e aceleração angular das juntas no mesmo momento (entradas da rede). RNA possui 6 neurônios de entrada, equivalentes aos seis pares de variáveis posição, velocidade e aceleração, e 2 neurônios de saída, equivalentes ao par de tensões de acionamento das duas juntas. A melhor convergência deu-se para uma rede com 2 camadas escondidas com 0 neurônios cada.

95 Treinamento da RNA O momentum foi fixado em 0,95 e a taxa de aprendizado em 0,5. O conjunto de pesos inicial foi escolhido de maneira randômica, com valores entre -0,0 e +0,0. Vin - Juta ( Processo ) 2- Junta 2 ( Processo ) 3- Junta ( Rede ) 4- Junta 2 ( Rede ) 2e4 e3 tempo Resultado do treinamento da RNA após iterações para θ = 900 e θ 2 = 800

96 Simulações e Resultados erro em graus x tempo 2 2 ) Junta ( PD clássico ) 2) Junta 2 ( PD clássico ) 3) Junta ( Neural ) 4) Junta 2 (Neural ) 4 3 CONTROLADOR PD: θ = 900 e θ 2 = ) Junta ( PD clássico ) 2) Junta 2 ( PD clássico ) 3) Junta ( Neural ) 4) Junta 2 (Neural ) 4 CONTROLADOR PD: θ = 450 e θ 2 = 200

97 Simulações e Resultados erro em graus x tempo 2 2 ) Junta ( PD clássico ) 2) Junta 2 ( PD clássico ) 3) Junta ( Neural ) 4) Junta 2 (Neural ) 4 3 CONTROLADOR PD : θ = 600 e θ 2 = ) Junta ( PID clássico ) 2) Junta 2 ( PID clássico ) 3) Junta ( Neural ) 4) Junta 2 (Neural ) CONTROLADOR PID : θ = 900 e θ 2 = 800

98 Simulações e Resultados erro em graus x tempo ) Junta ( PID clássico ) 2) Junta 2 ( PID clássico ) 3) Junta ( Neural ) 4) Junta 2 (Neural ) CONTROLADOR PID : θ = 450 e θ 2 = ) Junta ( PID clássico ) 2) Junta 2 ( PID clássico ) 3) Junta ( Neural ) 4) Junta 2 (Neural ) CONTROLADOR PID : θ = 600 e θ 2 = 000

99 Conclusão Parcial As RNAs realmente conseguem aproximar satisfatoriamente o comportamento do Robô Manipulador. Torque Computado Neural tem desempenho muito melhor do que os controladores clássicos. Os erros transitórios são de três a quatro vezes menores do que aqueles apresentados pelos controladores clássicos, o que realmente motiva o uso desta técnica. A RNA treinada de forma off-line leva o processo a desestabilização quando este é submetido a uma mudança acentuada em relação aos parâmetros utilizados no treinamento. Em uma Rede Neural com ajuste on-line, desde que com um algoritmo de treinamento suficientemente rápido, este problema seria contornado.

100 Esquema Alternativo (Adaptativo) Controlador adaptativo baseado na passividade:

101 Treinamento On-Line Algoritmo de treinamento: Quickpropagation. Arquitetura: 4 camadas, 2 camadas escondidas com 0 neurônios cada. Treinamento inicial off-line: Robô controlado por PD clássico segue uma trajetória dada; Medimos tensão aplicada na entrada e os valores de posição, velocidade e aceleração resultantes; 300 Pares de treinamento são adquiridos; São feitas iterações de treinamento.

102 Treinamento On-Line Mudanças na dinâmica devem ser incorporadas em tempo real. Queremos testar comportamento com mudanças na carga útil (payload) do robô. Comportamento Adaptativo: Novos pares de treinamento adicionados em tempo real a cada 5 ms. Novo treino feito em somente 5 iterações com Quickpropagation. A rede é atualizada a cada 200 ms.

103 Controlador Neural x PD sem carga

104 Controlador neural sem carga

105 Adição de Carga de 2.5 Kg

106 Adição de Carga de 3.2 Kg

107 Conclusões Controlador neural tem menor erro de seguimento de trajetória do que PD clássico. O controlador neural adaptativo tem melhor comportamento do que o PD e do que o neural offline com mudança da carga útil. Podemos ter problemas se a trajetória e a carga excitam os modos flexíveis das juntas.

108 Aplicações III Visão Computacional

109 RECONHECIMENTO DE IMAGENS UTILIZANDO DESCRITORES DE FOURIER E REDES NEURAIS Marcelo R. Stemmer Carlos Amado Machado Neto Alexandre Orth

110 Introdução Objetivo: desenvolver sistema de reconhecimento de peças em 2D para uso em FMC com as características seguintes: reconhecer peças mesmo com sujeira e má iluminação (condições reais de chão de fábrica); realizar o reconhecimento em tempo real; identificar a posição e orientação da peça de forma a informar o robô para manipulação; reconhecer objetos múltiplos em uma imagem; reconhecer objetos parcialmente superpostos.

111 Estrutura física do sistema

112 Recursos Câmera - Panasonic WV-40 B&W CCD Placa digitalizadora TrueVision ICB 200 linhas x 256 colunas cores - RGB cada pixel - 2 bits PC Pentium 300MHz (999)

113 Estrutura do Sistema C a p ta Im a g e m H is to g r a m a L im p a d o F u n d o D e te r m in a T r ilh a T r a n s f o r m a d a d e F o u r ie r A c u m u la E x e m p lo s T r e in a R e d e Id e n tif ic a Im a g e m

114 Aquisição e Limpeza da Imagem Amostrar uma imagem (ICB) e ler a memória da placa Calcular média das componentes RGB Obtém-se uma matriz 200x256 em que cada pixel é um número de 0 a 3 que representa a intensidade luminosa do ponto correspondente na imagem. Aplicação de threshold: se o pixel tem intensidade menor que um limiar, igualar a 0 apenas os pixels que compõem a peça permanecem diferentes de 0 (binarização)

115 Imagem Binarizada

116 Determinação do Contorno varredura procura uma região clara na imagem, indicando provável existência de um objeto. Contorno definido como a seqüência ordenada dos pontos 8conectados pertencentes ao objeto e que possuem pelo menos um ponto 4-vizinho pertencente ao fundo. Contorno pode ser visto como seqüência de números complexos cuja parte real é a componente horizontal do ponto na imagem, h(k), e a parte imaginária é a componente vertical, v(k): S(k) = h(k) + j.v(k) k=0..n- onde N é o número total de pontos no contorno. Qualquer ponto do contorno pode ser escolhido como o início da seqüência. Os demais são tomados ordenadamente no sentido horário, encerrando com o ponto imediatamente anterior ao inicial.

117 Determinação do Contorno Contour = Y (t ); with Y (t ) Y (t ) = x + j. y; Contorno = {(3,3); (4,3); (5,3); (6,3); (6,4); (6,5); (6,6); (5,6); (4,6); (3,5); (3,4)}; Y() = 3 + j3;

118 Contorno da Peça 3

119 Extração de Características Contorno composto por um vetor de pontos bidimensionais (x, y). Se considerarmos os valores x como pertencentes ao eixo de tempo e os valores de y como amplitudes de sinal, podemos interpretar o contorno como um sinal discreto no tempo e aplicar DFT. Os coeficientes da Transformada de Fourier Discreta (DFT) da seqüência S(k) são chamados Descritores de Fourier (DF) e servem para caracterizar o objeto. Na etapa de classificação são utilizados os coeficientes com índices de até 20. O coeficiente F(0) fornece a posição do centróide do contorno. Algoritmo DFT clássico (não é possível usar FFT pois o número de pontos da trilha não é conhecido à priori). Propriedades: invariante à translação e à rotação.

120 Extração de Características

121 Identificação/Classificação Descritores de Fourier submetidos a uma Rede Neural para Classificação Rede Neural: camada de entrada com 20 neurônios ( para cada DF) uma camada oculta configurável (ex. 0 neurônios) camada de saída configurável ( para cada objeto) rede feedforward estática

122 Imagens com Várias Peças Na etapa de treinamento, as peças são apresentadas isoladamente. Durante a operação, as peças podem ser apresentadas conjuntamente. Após terminado o processamento de um contorno, a peça já tratada é apagada da imagem. Inicia-se, então, a procura e tratamento de outra peça, procedimento que se repete até que nenhuma outra seja encontrada. Encerrado o tratamento de todas as peças contidas numa imagem, outra imagem pode ser capturada.

123 Tratamento de Peças Sobrepostas Obtém-se o contorno da peça de cima e depois remove-se esta peça da imagem, até que todas as peças empilhadas tenham sido processadas. Limitações: Espessura das peças deve ser muito menor que comprimento e largura de modo que contorno não mude muito com superposição (processamento 2D). Necessário elevado contraste entre peças. Procedimento de limpeza da imagem tem que ser modificado a fim de levar em consideração a existência de mais de dois níveis de cinza na imagem (apenas um limiar não basta).

124 Imagem da Peça 2 sobre a Peça

125 Imagem da Peça sobre a Peça 2

126 Treinamento da Rede A rede foi treinada com o algoritmo backpropagation. O conjunto de treinamento foi formado com DF s resultantes do processamento de imagens contendo 3 exemplos (imagens) de cada peça. Foram incluídos 40 exemplos de DF s resultantes do processamento de imagens onde as peças figuravam parcialmente ocultas (com grau de ocultação de até 50%).

127 Exemplos de Peças Usadas

128 Resultados Obteve-se uma taxa de acerto de praticamente 00% para peças isoladas ou múltiplas não superpostas. Tempo de treinamento: 20s para 4 peças Para peças sobrepostas: cerca de 90% de acerto para situações muito próximas as encontradas no grupo de treinamento taxas bastante baixas de acerto na peça de baixo se ocultação muito grande.

129 Resultados A componente F(0) da DFT do contorno fornece a posição do centróide da peça em relação ao canto superior esquerdo da imagem. Se a posição deste ponto em relação aos eixos de referência do robô for conhecida podemos posicionar sua garra exatamente sobre a peça focalizada. A informação sobre a orientação da peça, contida na fase dos coeficientes F(u), u=..n-, pode ser utilizada para informar ao robô qual o ângulo mais favorável para agarrar a peça.

130 Conclusões Taxas de acerto são boas, mesmo com má iluminação e peças muito semelhantes O tempo de treinamento pode ser reduzido com outros algoritmos como Quikpropagation ou Resilient Propagation. Trabalhos futuros sobre Imagens 3D!

131 Comentários Finais Técnica de RNA alvo de muitas pesquisas. Problemas a resolver: desenvolvimento de modelos de neurônios mais próximos dos biológicos; escolha do número de neurônios ideal para uma aplicação; escolha do número de camadas da rede; escolha de redes com ou sem feedback; escolha da melhor técnica de treinamento; desenvolvimento de novos algoritmos de treinamento da rede (velocidade x plausibilidade biológica); demonstração de estabilidade de controladores neurais; escolha de padrões de treinamento adequados.

MLP (Multi Layer Perceptron)

MLP (Multi Layer Perceptron) MLP (Multi Layer Perceptron) André Tavares da Silva andre.silva@udesc.br Roteiro Rede neural com mais de uma camada Codificação de entradas e saídas Decorar x generalizar Perceptron Multi-Camada (MLP -

Leia mais

Redes Neurais. Profa. Flavia Cristina Bernardini

Redes Neurais. Profa. Flavia Cristina Bernardini Redes Neurais Profa. Flavia Cristina Bernardini Introdução Cérebro & Computador Modelos Cognitivos Diferentes Cérebro Computador Seqüência de Comandos Reconhecimento de Padrão Lento Rápido Rápido Lento

Leia mais

Modelos Pioneiros de Aprendizado

Modelos Pioneiros de Aprendizado Modelos Pioneiros de Aprendizado Conteúdo 1. Hebb... 2 2. Perceptron... 5 2.1. Perceptron Simples para Classificaçãod e Padrões... 6 2.2. Exemplo de Aplicação e Motivação Geométrica... 9 2.3. Perceptron

Leia mais

Complemento II Noções Introdutória em Redes Neurais

Complemento II Noções Introdutória em Redes Neurais Complemento II Noções Introdutória em Redes Neurais Esse documento é parte integrante do material fornecido pela WEB para a 2ª edição do livro Data Mining: Conceitos, técnicas, algoritmos, orientações

Leia mais

Aula 2 RNA Arquiteturas e Treinamento

Aula 2 RNA Arquiteturas e Treinamento 2COP229 Aula 2 RNA Arquiteturas e Treinamento 2COP229 Sumário 1- Arquiteturas de Redes Neurais Artificiais; 2- Processos de Treinamento; 2COP229 1- Arquiteturas de Redes Neurais Artificiais -Arquitetura:

Leia mais

Matlab - Neural Networw Toolbox. Ana Lívia Soares Silva de Almeida

Matlab - Neural Networw Toolbox. Ana Lívia Soares Silva de Almeida 27 de maio de 2014 O que é a Neural Networw Toolbox? A Neural Network Toolbox fornece funções e aplicativos para a modelagem de sistemas não-lineares complexos que não são facilmente modelados com uma

Leia mais

Figura 5.1.Modelo não linear de um neurônio j da camada k+1. Fonte: HAYKIN, 2001

Figura 5.1.Modelo não linear de um neurônio j da camada k+1. Fonte: HAYKIN, 2001 47 5 Redes Neurais O trabalho em redes neurais artificiais, usualmente denominadas redes neurais ou RNA, tem sido motivado desde o começo pelo reconhecimento de que o cérebro humano processa informações

Leia mais

Redes Neurais. A IA clássica segue o paradigma da computação simbólica

Redes Neurais. A IA clássica segue o paradigma da computação simbólica Abordagens não simbólicas A IA clássica segue o paradigma da computação simbólica Redes Neurais As redes neurais deram origem a chamada IA conexionista, pertencendo também a grande área da Inteligência

Leia mais

Projeto de Redes Neurais e MATLAB

Projeto de Redes Neurais e MATLAB Projeto de Redes Neurais e MATLAB Centro de Informática Universidade Federal de Pernambuco Sistemas Inteligentes IF684 Arley Ristar arrr2@cin.ufpe.br Thiago Miotto tma@cin.ufpe.br Baseado na apresentação

Leia mais

UNISINOS - UNIVERSIDADE DO VALE DO RIO DOS SINOS

UNISINOS - UNIVERSIDADE DO VALE DO RIO DOS SINOS UNISINOS - UNIVERSIDADE DO VALE DO RIO DOS SINOS Curso: Informática Disciplina: Redes Neurais Prof. Fernando Osório E-mail: osorio@exatas.unisinos.br EXEMPLO DE QUESTÕES DE PROVAS ANTIGAS 1. Supondo que

Leia mais

Redes Neurais Construtivas. Germano Crispim Vasconcelos Centro de Informática - UFPE

Redes Neurais Construtivas. Germano Crispim Vasconcelos Centro de Informática - UFPE Redes Neurais Construtivas Germano Crispim Vasconcelos Centro de Informática - UFPE Motivações Redes Feedforward têm sido bastante utilizadas em aplicações de Reconhecimento de Padrões Problemas apresentados

Leia mais

Do neurônio biológico ao neurônio das redes neurais artificiais

Do neurônio biológico ao neurônio das redes neurais artificiais Do neurônio biológico ao neurônio das redes neurais artificiais O objetivo desta aula é procurar justificar o modelo de neurônio usado pelas redes neurais artificiais em termos das propriedades essenciais

Leia mais

EXERCÍCIOS RESOLVIDOS

EXERCÍCIOS RESOLVIDOS ENG JR ELETRON 2005 29 O gráfico mostrado na figura acima ilustra o diagrama do Lugar das Raízes de um sistema de 3ª ordem, com três pólos, nenhum zero finito e com realimentação de saída. Com base nas

Leia mais

CÁLCULO DE ZEROS DE FUNÇÕES REAIS

CÁLCULO DE ZEROS DE FUNÇÕES REAIS 15 CÁLCULO DE ZEROS DE FUNÇÕES REAIS Um dos problemas que ocorrem mais frequentemente em trabalhos científicos é calcular as raízes de equações da forma: f() = 0. A função f() pode ser um polinômio em

Leia mais

IC Inteligência Computacional Redes Neurais. Redes Neurais

IC Inteligência Computacional Redes Neurais. Redes Neurais Universidade Federal do Rio de Janeiro PÓS-GRADUAÇÃO / 2008-2 IC Inteligência Computacional Redes Neurais www.labic.nce.ufrj.br Antonio G. Thomé thome@nce.ufrj.br Redes Neurais São modelos computacionais

Leia mais

Tópico 11. Aula Teórica/Prática: O Método dos Mínimos Quadrados e Linearização de Funções

Tópico 11. Aula Teórica/Prática: O Método dos Mínimos Quadrados e Linearização de Funções Tópico 11. Aula Teórica/Prática: O Método dos Mínimos Quadrados e Linearização de Funções 1. INTRODUÇÃO Ao se obter uma sucessão de pontos experimentais que representados em um gráfico apresentam comportamento

Leia mais

Departamento de Matemática - UEL - 2010. Ulysses Sodré. http://www.mat.uel.br/matessencial/ Arquivo: minimaxi.tex - Londrina-PR, 29 de Junho de 2010.

Departamento de Matemática - UEL - 2010. Ulysses Sodré. http://www.mat.uel.br/matessencial/ Arquivo: minimaxi.tex - Londrina-PR, 29 de Junho de 2010. Matemática Essencial Extremos de funções reais Departamento de Matemática - UEL - 2010 Conteúdo Ulysses Sodré http://www.mat.uel.br/matessencial/ Arquivo: minimaxi.tex - Londrina-PR, 29 de Junho de 2010.

Leia mais

Universidade Federal do Rio de Janeiro. Princípios de Instrumentação Biomédica. Módulo 4

Universidade Federal do Rio de Janeiro. Princípios de Instrumentação Biomédica. Módulo 4 Universidade Federal do Rio de Janeiro Princípios de Instrumentação Biomédica Módulo 4 Faraday Lenz Henry Weber Maxwell Oersted Conteúdo 4 - Capacitores e Indutores...1 4.1 - Capacitores...1 4.2 - Capacitor

Leia mais

6 Conclusões e Trabalhos futuros 6.1. Conclusões

6 Conclusões e Trabalhos futuros 6.1. Conclusões 6 Conclusões e Trabalhos futuros 6.1. Conclusões Neste trabalho estudou-se o comportamento do sistema que foi denominado pendulo planar com a adição de uma roda de reação na haste do pendulo composta de

Leia mais

PALAVRAS-CHAVE: Massas Nodulares, Classificação de Padrões, Redes Multi- Layer Perceptron.

PALAVRAS-CHAVE: Massas Nodulares, Classificação de Padrões, Redes Multi- Layer Perceptron. 1024 UMA ABORDAGEM BASEADA EM REDES PERCEPTRON MULTICAMADAS PARA A CLASSIFICAÇÃO DE MASSAS NODULARES EM IMAGENS MAMOGRÁFICAS Luan de Oliveira Moreira¹; Matheus Giovanni Pires² 1. Bolsista PROBIC, Graduando

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Professor: Rosalvo Ferreira de Oliveira Neto Disciplina: Inteligência Artificial Tópicos 1. Definições 2. Tipos de aprendizagem 3. Paradigmas de aprendizagem 4. Modos de aprendizagem

Leia mais

Capítulo 3. Avaliação de Desempenho. 3.1 Definição de Desempenho

Capítulo 3. Avaliação de Desempenho. 3.1 Definição de Desempenho 20 Capítulo 3 Avaliação de Desempenho Este capítulo aborda como medir, informar e documentar aspectos relativos ao desempenho de um computador. Além disso, descreve os principais fatores que influenciam

Leia mais

Inteligência Artificial. Redes Neurais Artificiais

Inteligência Artificial. Redes Neurais Artificiais Curso de Especialização em Sistemas Inteligentes Aplicados à Automação Inteligência Artificial Redes Neurais Artificiais Aulas Práticas no Matlab João Marques Salomão Rodrigo Varejão Andreão Matlab Objetivos:

Leia mais

CI202 - Métodos Numéricos

CI202 - Métodos Numéricos CI202 - Métodos Numéricos Lista de Exercícios 2 Zeros de Funções Obs.: as funções sen(x) e cos(x) devem ser calculadas em radianos. 1. Em geral, os métodos numéricos para encontrar zeros de funções possuem

Leia mais

Caracterização temporal de circuitos: análise de transientes e regime permanente. Condições iniciais e finais e resolução de exercícios.

Caracterização temporal de circuitos: análise de transientes e regime permanente. Condições iniciais e finais e resolução de exercícios. Conteúdo programático: Elementos armazenadores de energia: capacitores e indutores. Revisão de características técnicas e relações V x I. Caracterização de regime permanente. Caracterização temporal de

Leia mais

Modelagem no Domínio do Tempo. Carlos Alexandre Mello. Carlos Alexandre Mello cabm@cin.ufpe.br 1

Modelagem no Domínio do Tempo. Carlos Alexandre Mello. Carlos Alexandre Mello cabm@cin.ufpe.br 1 Carlos Alexandre Mello 1 Modelagem no Domínio da Frequência A equação diferencial de um sistema é convertida em função de transferência, gerando um modelo matemático de um sistema que algebricamente relaciona

Leia mais

Organização e Arquitetura de Computadores I

Organização e Arquitetura de Computadores I Organização e Arquitetura de Computadores I Aritmética Computacional Slide 1 Sumário Unidade Lógica e Aritmética Representação de Números Inteiros Aritmética de Números Inteiros Representação de Números

Leia mais

IBM1018 Física Básica II FFCLRP USP Prof. Antônio Roque Aula 6. O trabalho feito pela força para deslocar o corpo de a para b é dado por: = =

IBM1018 Física Básica II FFCLRP USP Prof. Antônio Roque Aula 6. O trabalho feito pela força para deslocar o corpo de a para b é dado por: = = Energia Potencial Elétrica Física I revisitada 1 Seja um corpo de massa m que se move em linha reta sob ação de uma força F que atua ao longo da linha. O trabalho feito pela força para deslocar o corpo

Leia mais

Capítulo 11 MOTORES ELÉTRICOS DE CORRENTE CONTÍNUA E UNIVERSAL. Introdução

Capítulo 11 MOTORES ELÉTRICOS DE CORRENTE CONTÍNUA E UNIVERSAL. Introdução Capítulo 11 MOTORES ELÉTRICOS DE CORRENTE CONTÍNUA E UNIVERSAL Esta aula apresenta o princípio de funcionamento dos motores elétricos de corrente contínua, o papel do comutador, as características e relações

Leia mais

5. EXPERIÊNCIAS E ANÁLISE DOS RESULTADOS. 5.1 - Os Programas de Avaliação

5. EXPERIÊNCIAS E ANÁLISE DOS RESULTADOS. 5.1 - Os Programas de Avaliação 36 5. EXPERIÊNCIAS E ANÁLISE DOS RESULTADOS 5.1 - Os Programas de Avaliação Programas de avaliação convencionais foram utilizados para análise de diversas configurações da arquitetura. Estes programas

Leia mais

PROCESSO DE DESENVOLVIMENTO DE SOFTWARE. Modelos de Processo de Desenvolvimento de Software

PROCESSO DE DESENVOLVIMENTO DE SOFTWARE. Modelos de Processo de Desenvolvimento de Software PROCESSO DE DESENVOLVIMENTO DE SOFTWARE Introdução Modelos de Processo de Desenvolvimento de Software Os modelos de processos de desenvolvimento de software surgiram pela necessidade de dar resposta às

Leia mais

Sistemas Operacionais e Introdução à Programação. Vetores e matrizes

Sistemas Operacionais e Introdução à Programação. Vetores e matrizes Sistemas Operacionais e Introdução à Programação Vetores e matrizes 1 Matrizes Cada elemento de uma matriz é referenciado indicando-se sua posição dentro da matriz. Na Matemática, matrizes são arranjos

Leia mais

FUNDAÇÃO DE APOIO AO ENSINO TÉCNICO DO ESTADO DO RIO DE JANEIRO FAETERJ Petrópolis Área de Extensão PLANO DE CURSO

FUNDAÇÃO DE APOIO AO ENSINO TÉCNICO DO ESTADO DO RIO DE JANEIRO FAETERJ Petrópolis Área de Extensão PLANO DE CURSO FUNDAÇÃO DE APOIO AO ENINO TÉCNICO DO ETADO DO RIO DE JANEIRO PLANO DE CURO 1. Identificação Curso de Extensão: INTRODUÇÃO AO ITEMA INTELIGENTE Professor Regente: José Carlos Tavares da ilva Carga Horária:

Leia mais

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 20 - Backpropagation

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 20 - Backpropagation Inteligência Artificial Prof. Tiago A. E. Ferreira Aula 20 - Backroagation Introdução Redes de uma camada resolvem aenas roblemas linearmente searáveis Solução: utilizar mais de uma camada Camada 1: uma

Leia mais

Correlação e Regressão Linear

Correlação e Regressão Linear Correlação e Regressão Linear A medida de correlação é o tipo de medida que se usa quando se quer saber se duas variáveis possuem algum tipo de relação, de maneira que quando uma varia a outra varia também.

Leia mais

3 Metodologia de Previsão de Padrões de Falha

3 Metodologia de Previsão de Padrões de Falha 3 Metodologia de Previsão de Padrões de Falha Antes da ocorrência de uma falha em um equipamento, ele entra em um regime de operação diferente do regime nominal, como descrito em [8-11]. Para detectar

Leia mais

Admistração de Redes de Computadores (ARC)

Admistração de Redes de Computadores (ARC) Admistração de Redes de Computadores (ARC) Instituto Federal de Educação, Ciência e Tecnologia de Santa Catarina - Campus São José Prof. Glauco Cardozo glauco.cardozo@ifsc.edu.br RAID é a sigla para Redundant

Leia mais

11/07/2012. Professor Leonardo Gonsioroski FUNDAÇÃO EDSON QUEIROZ UNIVERSIDADE DE FORTALEZA DEPARTAMENTO DE ENGENHARIA ELÉTRICA.

11/07/2012. Professor Leonardo Gonsioroski FUNDAÇÃO EDSON QUEIROZ UNIVERSIDADE DE FORTALEZA DEPARTAMENTO DE ENGENHARIA ELÉTRICA. FUNDAÇÃO EDSON QUEIROZ UNIVERSIDADE DE FORTALEZA DEPARTAMENTO DE ENGENHARIA ELÉTRICA Aulas anteriores Tipos de Sinais (degrau, rampa, exponencial, contínuos, discretos) Transformadas de Fourier e suas

Leia mais

IW10. Rev.: 02. Especificações Técnicas

IW10. Rev.: 02. Especificações Técnicas IW10 Rev.: 02 Especificações Técnicas Sumário 1. INTRODUÇÃO... 1 2. COMPOSIÇÃO DO IW10... 2 2.1 Placa Principal... 2 2.2 Módulos de Sensores... 5 3. APLICAÇÕES... 6 3.1 Monitoramento Local... 7 3.2 Monitoramento

Leia mais

O tornado de projeto é admitido, para fins quantitativos, com as seguintes características [15]:

O tornado de projeto é admitido, para fins quantitativos, com as seguintes características [15]: 4 Tornado de Projeto O tornado de projeto é admitido, para fins quantitativos, com as seguintes características [15]: Tornado do tipo F3-médio; Velocidade máxima de 233km/h = 64,72m/s; Velocidade translacional

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Inteligência Artificial Prof. Cedric Luiz de Carvalho Instituto de Informática UFG 2006 2/164 Tópicos Introdução Redes Neurais Humanas O que são Redes Neurais Artificiais Características

Leia mais

Universidade Federal do Rio Grande do Sul Escola de Engenharia Departamento de Engenharia Elétrica ENG04037 Sistemas de Controle Digitais

Universidade Federal do Rio Grande do Sul Escola de Engenharia Departamento de Engenharia Elétrica ENG04037 Sistemas de Controle Digitais Universidade Federal do Rio Grande do Sul Escola de Engenharia Departamento de Engenharia Elétrica ENG437 Sistemas de Controle Digitais Introdução Controladores PID Prof. Walter Fetter Lages 2 de maio

Leia mais

29/08/2011. Radiologia Digital. Princípios Físicos da Imagem Digital 1. Mapeamento não-linear. Unidade de Aprendizagem Radiológica

29/08/2011. Radiologia Digital. Princípios Físicos da Imagem Digital 1. Mapeamento não-linear. Unidade de Aprendizagem Radiológica Mapeamento não-linear Radiologia Digital Unidade de Aprendizagem Radiológica Princípios Físicos da Imagem Digital 1 Professor Paulo Christakis 1 2 Sistema CAD Diagnóstico auxiliado por computador ( computer-aided

Leia mais

Curso Automação Industrial Aula 2 Estrutura e características Gerais dos Robôs. Prof. Giuliano Gozzi Disciplina: CNC - Robótica

Curso Automação Industrial Aula 2 Estrutura e características Gerais dos Robôs. Prof. Giuliano Gozzi Disciplina: CNC - Robótica Curso Automação Industrial Aula 2 Estrutura e características Gerais dos Robôs Prof. Giuliano Gozzi Disciplina: CNC - Robótica Cronograma Introdução a Robótica Estrutura e Características Gerais dos Robôs

Leia mais

Tutorial de Eletrônica Aplicações com 555 v2010.05

Tutorial de Eletrônica Aplicações com 555 v2010.05 Tutorial de Eletrônica Aplicações com 555 v2010.05 Linha de Equipamentos MEC Desenvolvidos por: Maxwell Bohr Instrumentação Eletrônica Ltda. Rua Porto Alegre, 212 Londrina PR Brasil http://www.maxwellbohr.com.br

Leia mais

Arquitetura de Rede de Computadores

Arquitetura de Rede de Computadores TCP/IP Roteamento Arquitetura de Rede de Prof. Pedro Neto Aracaju Sergipe - 2011 Ementa da Disciplina 4. Roteamento i. Máscara de Rede ii. Sub-Redes iii. Números Binários e Máscara de Sub-Rede iv. O Roteador

Leia mais

Aplicações Práticas com Redes Neurais Artificiais em Java

Aplicações Práticas com Redes Neurais Artificiais em Java com em Java Luiz D Amore e Mauro Schneider JustJava 2009 17 de Setembro de 2009 Palestrantes Luiz Angelo D Amore luiz.damore@metodista.br Mauro Ulisses Schneider mauro.schneider@metodista.br http://blog.mauros.org

Leia mais

Roteamento em Redes de Computadores

Roteamento em Redes de Computadores Roteamento em Redes de Computadores José Marcos Câmara Brito INATEL - Instituto Nacional de Telecomunicações INATEL - Instituto Nacional de Telecomunicações 01/08/00 1 Introdução Objetivo Tipos de rede

Leia mais

Conforme explicado em 2.4.3, o sinal de voz x(n) às vezes é alterado com a adição de ruído r(n), resultando num sinal corrompido y(n).

Conforme explicado em 2.4.3, o sinal de voz x(n) às vezes é alterado com a adição de ruído r(n), resultando num sinal corrompido y(n). 4 Wavelet Denoising O capítulo 3 abordou a questão do ruído durante a extração dos atributos as técnicas do SSCH e do PNCC, por exemplo, extraem com mais robustez a informação da voz a partir de um sinal

Leia mais

Miguel C. Branchtein, Delegacia Regional do Trabalho no Rio Grande do Sul

Miguel C. Branchtein, Delegacia Regional do Trabalho no Rio Grande do Sul DETERMINAÇÃO DE CONDIÇÃO DE ACIONAMENTO DE FREIO DE EMERGÊNCIA TIPO "VIGA FLUTUANTE" DE ELEVADOR DE OBRAS EM CASO DE QUEDA DA CABINE SEM RUPTURA DO CABO Miguel C. Branchtein, Delegacia Regional do Trabalho

Leia mais

PROGRAMAÇÃO EM LINGUAGEM LADDER LINGUAGEM DE RELÉS

PROGRAMAÇÃO EM LINGUAGEM LADDER LINGUAGEM DE RELÉS 1 PROGRAMAÇÃO EM LINGUAGEM LADDER LINGUAGEM DE RELÉS INTRODUÇÃO O processamento interno do CLP é digital e pode-se, assim, aplicar os conceitos de lógica digital para compreen8 der as técnicas e as linguagens

Leia mais

Pós-Graduação em Engenharia Elétrica Inteligência Artificial

Pós-Graduação em Engenharia Elétrica Inteligência Artificial Pós-Graduação em Engenharia Elétrica Inteligência Artificial João Marques Salomão Rodrigo Varejão Andreão Inteligência Artificial Definição (Fonte: AAAI ): "the scientific understanding of the mechanisms

Leia mais

Relatório Iniciação Científica

Relatório Iniciação Científica Relatório Iniciação Científica Ambientes Para Ensaios Computacionais no Ensino de Neurocomputação e Reconhecimento de Padrões Bolsa: Programa Ensinar com Pesquisa-Pró-Reitoria de Graduação Departamento:

Leia mais

MICROMASTER MM4. Usando o Controle de Malha Fechada (PID) Edição 08.2002. IND 1 Drives technology Suporte Técnico Drives Hotline

MICROMASTER MM4. Usando o Controle de Malha Fechada (PID) Edição 08.2002. IND 1 Drives technology Suporte Técnico Drives Hotline s MICROMASTER MM4 Usando o Controle de Malha Fechada (PID) Edição 08.2002 IND 1 Drives technology Suporte Técnico Drives Hotline USANDO O CONTROLE DE MALHA FECHADA NO MM4 O que é controle de malha fechada

Leia mais

IBM1018 Física Básica II FFCLRP USP Prof. Antônio Roque Aula 3

IBM1018 Física Básica II FFCLRP USP Prof. Antônio Roque Aula 3 Linhas de Força Mencionamos na aula passada que o físico inglês Michael Faraday (79-867) introduziu o conceito de linha de força para visualizar a interação elétrica entre duas cargas. Para Faraday, as

Leia mais

Capítulo 1. x > y ou x < y ou x = y

Capítulo 1. x > y ou x < y ou x = y Capítulo Funções, Plano Cartesiano e Gráfico de Função Ao iniciar o estudo de qualquer tipo de matemática não podemos provar tudo. Cada vez que introduzimos um novo conceito precisamos defini-lo em termos

Leia mais

TÍTULO: PROPOSTA DE METODOLOGIA BASEADA EM REDES NEURAIS ARTIFICIAIS MLP PARA A PROTEÇÃO DIFERENCIAL DE TRANSFORMADORES DE POTÊNCIA

TÍTULO: PROPOSTA DE METODOLOGIA BASEADA EM REDES NEURAIS ARTIFICIAIS MLP PARA A PROTEÇÃO DIFERENCIAL DE TRANSFORMADORES DE POTÊNCIA TÍTULO: PROPOSTA DE METODOLOGIA BASEADA EM REDES NEURAIS ARTIFICIAIS MLP PARA A PROTEÇÃO DIFERENCIAL DE TRANSFORMADORES DE POTÊNCIA CATEGORIA: CONCLUÍDO ÁREA: ENGENHARIAS E ARQUITETURA SUBÁREA: ENGENHARIAS

Leia mais

Estabilidade. Carlos Alexandre Mello. Carlos Alexandre Mello cabm@cin.ufpe.br 1

Estabilidade. Carlos Alexandre Mello. Carlos Alexandre Mello cabm@cin.ufpe.br 1 Estabilidade Carlos Alexandre Mello 1 Introdução Já vimos que existem três requisitos fundamentais para projetar um sistema de controle: Resposta Transiente Estabilidade Erros de Estado Estacionário Estabilidade

Leia mais

Tabela de Símbolos. Análise Semântica A Tabela de Símbolos. Principais Operações. Estrutura da Tabela de Símbolos. Declarações 11/6/2008

Tabela de Símbolos. Análise Semântica A Tabela de Símbolos. Principais Operações. Estrutura da Tabela de Símbolos. Declarações 11/6/2008 Tabela de Símbolos Análise Semântica A Tabela de Símbolos Fabiano Baldo Após a árvore de derivação, a tabela de símbolos é o principal atributo herdado em um compilador. É possível, mas não necessário,

Leia mais

MINERAÇÃO DE DADOS APLICADA. Pedro Henrique Bragioni Las Casas pedro.lascasas@dcc.ufmg.br

MINERAÇÃO DE DADOS APLICADA. Pedro Henrique Bragioni Las Casas pedro.lascasas@dcc.ufmg.br MINERAÇÃO DE DADOS APLICADA Pedro Henrique Bragioni Las Casas pedro.lascasas@dcc.ufmg.br Processo Weka uma Ferramenta Livre para Data Mining O que é Weka? Weka é um Software livre do tipo open source para

Leia mais

Sua indústria. Seu show. Seu Futuro

Sua indústria. Seu show. Seu Futuro Sua indústria. Seu show. Seu Futuro Usinagem 5-Eixos para Moldes Sandro, Vero Software Vero Software está no topo do relatório de fornecedores de CAM da CIMData 2014 Com maior Market Share, crescimento

Leia mais

Título: Controle de um sistema Bola- Barra com realimentação através de imagem

Título: Controle de um sistema Bola- Barra com realimentação através de imagem Título: Controle de um sistema Bola- Barra com realimentação através de imagem Autores: Caio Felipe Favaretto, Henrique Corrêa Ramiro, Rômulo de Oliveira Souza e Marcelo Barboza Silva Professor orientador:

Leia mais

MANUTENÇÃO ELÉTRICA INDUSTRIAL * ENROLAMENTOS P/ MOTORES CA *

MANUTENÇÃO ELÉTRICA INDUSTRIAL * ENROLAMENTOS P/ MOTORES CA * MANUTENÇÃO ELÉTRICA INDUSTRIAL * ENROLAMENTOS P/ MOTORES CA * Vitória ES 2006 7. ENROLAMENTOS PARA MOTORES DE CORRENTE ALTERNADA A maneira mais conveniente de associar vários condutores de um enrolamento

Leia mais

Análise e visualização de dados utilizando redes neurais artificiais auto-organizáveis

Análise e visualização de dados utilizando redes neurais artificiais auto-organizáveis Análise e visualização de dados utilizando redes neurais artificiais auto-organizáveis Adriano Lima de Sá Faculdade de Computação Universidade Federal de Uberlândia 20 de junho de 2014 Adriano L. Sá (UFU)

Leia mais

Cálculo Numérico Aula 1: Computação numérica. Tipos de Erros. Aritmética de ponto flutuante

Cálculo Numérico Aula 1: Computação numérica. Tipos de Erros. Aritmética de ponto flutuante Cálculo Numérico Aula : Computação numérica. Tipos de Erros. Aritmética de ponto flutuante Computação Numérica - O que é Cálculo Numérico? Cálculo numérico é uma metodologia para resolver problemas matemáticos

Leia mais

Os caracteres de escrita

Os caracteres de escrita III. Caracteres de Escrita Os caracteres de escrita ou letras técnicas são utilizadas em desenhos técnicos pelo simples fato de proporcionarem maior uniformidade e tornarem mais fácil a leitura. Se uma

Leia mais

Programação Básica em STEP 7 Operações Binárias. SITRAIN Training for Automation and Drives. Página 6-1

Programação Básica em STEP 7 Operações Binárias. SITRAIN Training for Automation and Drives. Página 6-1 Conteúdo Página Operações Lógicas Binárias: AND, OR...2 Operações Lógicas Binárias: OR Exclusivo (XOR)...3 Contatos Normalmente Abertos e Normalmente Fechados. Sensores e Símbolos... 4 Exercício...5 Resultado

Leia mais

1. Sistemas de numeração

1. Sistemas de numeração 1. Sistemas de numeração Quando mencionamos sistemas de numeração estamos nos referindo à utilização de um sistema para representar uma numeração, ou seja, uma quantidade. Sistematizar algo seria organizar,

Leia mais

RAID. Propõe o aumento da confiabilidade e desempenho do armazenamento em disco. RAID (Redundant Array of Independent Disks )

RAID. Propõe o aumento da confiabilidade e desempenho do armazenamento em disco. RAID (Redundant Array of Independent Disks ) RAID O que é um RAID? RAID RAID (Redundant Array of Independent Disks ) Matriz Redundante de Discos Independentes Propõe o aumento da confiabilidade e desempenho do armazenamento em disco. RAID Surgiu

Leia mais

Possui como idéia central a divisão de um universo de dados a ser organizado em subconjuntos mais gerenciáveis.

Possui como idéia central a divisão de um universo de dados a ser organizado em subconjuntos mais gerenciáveis. 3. Tabelas de Hash As tabelas de hash são um tipo de estruturação para o armazenamento de informação, de uma forma extremamente simples, fácil de se implementar e intuitiva de se organizar grandes quantidades

Leia mais

ESTEREOSCOPIA INTRODUÇÃO. Conversão de um par de imagens (a)-(b) em um mapa de profundidade (c)

ESTEREOSCOPIA INTRODUÇÃO. Conversão de um par de imagens (a)-(b) em um mapa de profundidade (c) ESTEREOSCOPIA INTRODUÇÃO Visão estereoscópica se refere à habilidade de inferir informações da estrutura 3-D e de distâncias da cena de duas ou mais imagens tomadas de posições diferentes. Conversão de

Leia mais

A01 Controle Linguagens: IL e LD

A01 Controle Linguagens: IL e LD A01 Controle Linguagens: IL e LD Prof. Dr. Diolino J santos Filho Modelo Estrutural Interação entre os dispositivos A partir de agora adotaremos como modelo estrutural padrão o diagrama a seguir. Dispositivo

Leia mais

MRP II. Planejamento e Controle da Produção 3 professor Muris Lage Junior

MRP II. Planejamento e Controle da Produção 3 professor Muris Lage Junior MRP II Introdução A lógica de cálculo das necessidades é conhecida há muito tempo Porém só pode ser utilizada na prática em situações mais complexas a partir dos anos 60 A partir de meados da década de

Leia mais

Protocolo em Rampa Manual de Referência Rápida

Protocolo em Rampa Manual de Referência Rápida Protocolo em Rampa Manual de Referência Rápida 1 O que é o Protocolo em Rampa O protocolo em rampa é um protocolo para testes de esforço que não possui estágios. Nele o incremento da carga se dá de maneira

Leia mais

Capacidade = 512 x 300 x 20000 x 2 x 5 = 30.720.000.000 30,72 GB

Capacidade = 512 x 300 x 20000 x 2 x 5 = 30.720.000.000 30,72 GB Calculando a capacidade de disco: Capacidade = (# bytes/setor) x (méd. # setores/trilha) x (# trilhas/superfície) x (# superfícies/prato) x (# pratos/disco) Exemplo 01: 512 bytes/setor 300 setores/trilha

Leia mais

O ESPAÇO NULO DE A: RESOLVENDO AX = 0 3.2

O ESPAÇO NULO DE A: RESOLVENDO AX = 0 3.2 3.2 O Espaço Nulo de A: Resolvendo Ax = 0 11 O ESPAÇO NULO DE A: RESOLVENDO AX = 0 3.2 Esta seção trata do espaço de soluções para Ax = 0. A matriz A pode ser quadrada ou retangular. Uma solução imediata

Leia mais

TRABALHO COM GRANDES MONTAGENS

TRABALHO COM GRANDES MONTAGENS Texto Técnico 005/2013 TRABALHO COM GRANDES MONTAGENS Parte 05 0 Vamos finalizar o tema Trabalho com Grandes Montagens apresentando os melhores recursos e configurações de hardware para otimizar a abertura

Leia mais

Técnico em Eletrotécnica

Técnico em Eletrotécnica Técnico em Eletrotécnica Caderno de Questões Prova Objetiva 2015 01 Em uma corrente elétrica, o deslocamento dos elétrons para produzir a corrente se deve ao seguinte fator: a) fluxo dos elétrons b) forças

Leia mais

Disciplina: Introdução à Informática Profª Érica Barcelos

Disciplina: Introdução à Informática Profª Érica Barcelos Disciplina: Introdução à Informática Profª Érica Barcelos CAPÍTULO 4 1. ARQUITETURA DO COMPUTADOR- HARDWARE Todos os componentes físicos constituídos de circuitos eletrônicos interligados são chamados

Leia mais

Identificação de Caracteres com Rede Neuronal Artificial com Interface Gráfica

Identificação de Caracteres com Rede Neuronal Artificial com Interface Gráfica Identificação de Caracteres com Rede Neuronal Artificial com Interface Gráfica João Paulo Teixeira*, José Batista*, Anildio Toca**, João Gonçalves**, e Filipe Pereira** * Departamento de Electrotecnia

Leia mais

Hardware (Nível 0) Organização. Interface de Máquina (IM) Interface Interna de Microprogramação (IIMP)

Hardware (Nível 0) Organização. Interface de Máquina (IM) Interface Interna de Microprogramação (IIMP) Hardware (Nível 0) Organização O AS/400 isola os usuários das características do hardware através de uma arquitetura de camadas. Vários modelos da família AS/400 de computadores de médio porte estão disponíveis,

Leia mais

Projetos. Universidade Federal do Espírito Santo - UFES. Mestrado em Informática 2004/1. O Projeto. 1. Introdução. 2.

Projetos. Universidade Federal do Espírito Santo - UFES. Mestrado em Informática 2004/1. O Projeto. 1. Introdução. 2. Pg. 1 Universidade Federal do Espírito Santo - UFES Mestrado em Informática 2004/1 Projetos O Projeto O projeto tem um peso maior na sua nota final pois exigirá de você a utilização de diversas informações

Leia mais

Sistemas Operacionais Gerência de Dispositivos

Sistemas Operacionais Gerência de Dispositivos Universidade Estadual de Mato Grosso do Sul UEMS Curso de Licenciatura em Computação Sistemas Operacionais Gerência de Dispositivos Prof. José Gonçalves Dias Neto profneto_ti@hotmail.com Introdução A gerência

Leia mais

Instrumentação na Indústria Química. Prof. Gerônimo

Instrumentação na Indústria Química. Prof. Gerônimo Instrumentação na Indústria Química Prof. Gerônimo Ementa 1. Introdução. 2. Histórico. 3. Automação, controle de processo. 4. Instrumentos para controle de processos: - Classificação dos instrumentos -

Leia mais

1. Introdução... 2. 2. As origens da RNA... 3. 3. O nosso cérebro... 5. 3.1. Plasticidade e modulação sináptica... 5

1. Introdução... 2. 2. As origens da RNA... 3. 3. O nosso cérebro... 5. 3.1. Plasticidade e modulação sináptica... 5 Sumário 1. Introdução... 2 2. As origens da RNA... 3 3. O nosso cérebro... 5 3.1. Plasticidade e modulação sináptica... 5 4. As redes neurais artificiais... 7 4.1. Estrutura da RNA... 7 4.3. Modelos de

Leia mais

&XUVRGH,QWURGXomRDR (GLWRUGH3ODQLOKDV([FHO

&XUVRGH,QWURGXomRDR (GLWRUGH3ODQLOKDV([FHO Universidade Federal de Viçosa Departamento de Informática &XUVRGH,QWURGXomRDR (GLWRUGH3ODQLOKDV([FHO Flaviano Aguiar Liziane Santos Soares Jugurta Lisboa Filho (Orientador) PROJETO UNESC@LA Setembro de

Leia mais

Unidade 13: Paralelismo:

Unidade 13: Paralelismo: Arquitetura e Organização de Computadores 1 Unidade 13: Paralelismo: SMP e Processamento Vetorial Prof. Daniel Caetano Objetivo: Apresentar os conceitos fundamentais da arquitetura SMP e alguns detalhes

Leia mais

Como funciona o motor de corrente contínua

Como funciona o motor de corrente contínua Como funciona o motor de corrente contínua Escrito por Newton C. Braga Este artigo é de grande utilidade para todos que utilizam pequenos motores, principalmente os projetistas mecatrônicos. Como o artigo

Leia mais

Somatórias e produtórias

Somatórias e produtórias Capítulo 8 Somatórias e produtórias 8. Introdução Muitas quantidades importantes em matemática são definidas como a soma de uma quantidade variável de parcelas também variáveis, por exemplo a soma + +

Leia mais

Algoritmos e Programação (Prática) Profa. Andreza Leite andreza.leite@univasf.edu.br

Algoritmos e Programação (Prática) Profa. Andreza Leite andreza.leite@univasf.edu.br (Prática) Profa. Andreza Leite andreza.leite@univasf.edu.br Introdução O computador como ferramenta indispensável: Faz parte das nossas vidas; Por si só não faz nada de útil; Grande capacidade de resolução

Leia mais

DINÂMICA. Força Resultante: É a força que produz o mesmo efeito que todas as outras aplicadas a um corpo.

DINÂMICA. Força Resultante: É a força que produz o mesmo efeito que todas as outras aplicadas a um corpo. DINÂMICA Quando se fala em dinâmica de corpos, a imagem que vem à cabeça é a clássica e mitológica de Isaac Newton, lendo seu livro sob uma macieira. Repentinamente, uma maçã cai sobre a sua cabeça. Segundo

Leia mais

SEGMENTAÇÃO DE IMAGENS EM PLACAS AUTOMOTIVAS

SEGMENTAÇÃO DE IMAGENS EM PLACAS AUTOMOTIVAS SEGMENTAÇÃO DE IMAGENS EM PLACAS AUTOMOTIVAS André Zuconelli 1 ; Manassés Ribeiro 2 1. Aluno do Curso Técnico em Informática, turma 2010, Instituto Federal Catarinense, Câmpus Videira, andre_zuconelli@hotmail.com

Leia mais

Roteamento e Comutação

Roteamento e Comutação Roteamento e Comutação Design de Rede Local Design Hierárquico Este design envolve a divisão da rede em camadas discretas. Cada camada fornece funções específicas que definem sua função dentro da rede

Leia mais

Relatório de uma Aplicação de Redes Neurais

Relatório de uma Aplicação de Redes Neurais UNIVERSIDADE ESTADUAL DE MONTES CLAROS CENTRO DE CIÊNCIAS EXATAS E TECNOLÓGICAS DEPARTAMENTO DE CIÊNCIAS DA COMPUTACAÇÃO ESPECIALIZAÇÃO EM ENGENHARIA DE SISTEMAS DISCIPLINA: REDES NEURAIS PROFESSOR: MARCOS

Leia mais

UNIVERSIDADE FEDERAL DE SANTA CATARINA GRADUAÇÃO EM SISTEMAS DE INFORMAÇÃO DEPARTAMENTO DE INFORMÁTICA E ESTATÍSTICA DATA MINING EM VÍDEOS

UNIVERSIDADE FEDERAL DE SANTA CATARINA GRADUAÇÃO EM SISTEMAS DE INFORMAÇÃO DEPARTAMENTO DE INFORMÁTICA E ESTATÍSTICA DATA MINING EM VÍDEOS UNIVERSIDADE FEDERAL DE SANTA CATARINA GRADUAÇÃO EM SISTEMAS DE INFORMAÇÃO DEPARTAMENTO DE INFORMÁTICA E ESTATÍSTICA DATA MINING EM VÍDEOS VINICIUS DA SILVEIRA SEGALIN FLORIANÓPOLIS OUTUBRO/2013 Sumário

Leia mais

15 Computador, projeto e manufatura

15 Computador, projeto e manufatura A U A UL LA Computador, projeto e manufatura Um problema Depois de pronto o desenho de uma peça ou objeto, de que maneira ele é utilizado na fabricação? Parte da resposta está na Aula 2, que aborda as

Leia mais

Introdução ao Aplicativo de Programação LEGO MINDSTORMS Education EV3

Introdução ao Aplicativo de Programação LEGO MINDSTORMS Education EV3 Introdução ao Aplicativo de Programação LEGO MINDSTORMS Education EV3 A LEGO Education tem o prazer de trazer até você a edição para tablet do Software LEGO MINDSTORMS Education EV3 - um jeito divertido

Leia mais

x0 = 1 x n = 3x n 1 x k x k 1 Quantas são as sequências com n letras, cada uma igual a a, b ou c, de modo que não há duas letras a seguidas?

x0 = 1 x n = 3x n 1 x k x k 1 Quantas são as sequências com n letras, cada uma igual a a, b ou c, de modo que não há duas letras a seguidas? Recorrências Muitas vezes não é possível resolver problemas de contagem diretamente combinando os princípios aditivo e multiplicativo. Para resolver esses problemas recorremos a outros recursos: as recursões

Leia mais

Máquinas Multiníveis

Máquinas Multiníveis Infra-Estrutura de Hardware Máquinas Multiníveis Prof. Edilberto Silva www.edilms.eti.br edilms@yahoo.com Sumário Conceitos básicos Classificação de arquiteturas Tendências da tecnologia Família Pentium

Leia mais

Manual de Instalação... 2 RECURSOS DESTE RELÓGIO... 3 1 - REGISTRANDO O ACESSO... 4 1.1 Acesso através de cartão de código de barras:...

Manual de Instalação... 2 RECURSOS DESTE RELÓGIO... 3 1 - REGISTRANDO O ACESSO... 4 1.1 Acesso através de cartão de código de barras:... 0 Conteúdo Manual de Instalação... 2 RECURSOS DESTE RELÓGIO... 3 1 - REGISTRANDO O ACESSO... 4 1.1 Acesso através de cartão de código de barras:... 4 1.2 Acesso através do teclado (digitando a matrícula):...

Leia mais