R 1: Se x é A 1 e y é B 1, então f 1 = p 1x + q 1y + r 1 R 2: Se x é A 2 e y é B 2, então f 2 = p 2x + q 2y + r 2

Documentos relacionados
2ª PROVA ICIN 1º/2015

Sistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy

Redes Neurais Convolucionais

Redes Neurais Convolucionais

1ª PROVA ICIN 1º/2015

Paradigmas de Aprendizagem

RECONHECIMENTO DE CARACTERES EM IMAGENS COM RUÍDO

Roberto Lotufo Big Data Brasil São Paulo, 23 de junho de 2018

JAI 6 - Deep Learning Teoria e Prática

RESOLUÇÃO 3ª PROVA ICIN 2º/2013

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

Inteligência Artificial Redes Neurais

Inteligência Artificial Escola de Verão Laboratório Associado de Computação e Matemática Aplicada LAC.

SEMINÁRIO DOS ARTIGOS:

READING DIGITS IN NATURAL IMAGES WITH UNSUPERVISED FEATURE LEARNING

Inteligência Artificial

INF011 - Seminários de Pesquisa II

lnteligência Artificial Introdução a Lógica Nebulosa (Fuzzy)

lnteligência Artificial Introdução a Lógica Nebulosa (Fuzzy)

3 Aprendizado por reforço

Controle de Sistemas Dinâmicos. CSD1 - Introdução. Prof. Adolfo Bauchspiess ENE/UnB

IF-705 Automação Inteligente Sistemas de Controle - Fundamentos

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela

Redes Neurais Artificiais

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

José Francisco Moreira Pessanha

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy

Aprendizado de Máquina (Machine Learning)

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

Redes Neurais Artificiais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Aprendizado de Máquina

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy

PROCESSO SELETIVO N 42/2019 PROVA 2 - CONHECIMENTOS ESPECÍFICOS

Redes Neurais Artificiais

3 Redes Neurais Artificiais

DESENVOLVIMENTO DE TÉCNICA DE INTELIGENCIA ARTIFICIAL BASEADA EM REDE NEURAL FUZZY-CMAC PARA APLICAÇÃO EM CONTROLE DE MÁQUINAS DE PRODUÇÃO

Workshop de Inteligência Artificial e Redes Neurais

UFSC Universidade Federal de Santa Catarina CTC Centro Tecnológico INE Departamento de Informática e Estatística

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

6. Controle por Aprendizado Neuro-Fuzzy

SEMINÁRIO Visão Computacional Aluno: Afonso Pinheiro

Mapeamento robótico. Mapeamento semântico. Metodologia. Maquinas de vetores de suporte. Maquinas de vetores de suporte. Modelos ocultos de Markov

Redes Neurais Artificial. Prática. Inteligência Artificial

3 Sistemas Neuro-Fuzzy Hierárquicos

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

Figura 4.2: Matriz Curricular

Pré-requisito Coreq Disciplina ECA101 - Expressão Gráfica - Ativa desde: 01/01/2008. Natureza - OBRIGATÓRIA PRÁTICA 36 TEÓRICA 18

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Natureza - OBRIGTEÓRICA

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Descritores de Imagens

Redes Neurais não Supervisionadas: SOM

Transformação de Imagens Digitais em Código CNC Aprimoradas com Redes Neurais Artificiais

INF 1771 Inteligência Artificial

SISTEMAS NEURO-FUZZY NEURAL-FUZZY SYSTEMS

INF 1771 Inteligência Artificial

Aprendizagem por treinamento de redes de aproximação

2. Redes Neurais Artificiais

UNIVERSIDADE FEDERAL DE LAVRAS PRÓ-REITORIA DE GRADUAÇÃO. Currículo Pleno

Automação Inteligente de Processos e Sistemas

GoogLeNet - Going Deeper with Convolutions

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

Aprendizado de Máquina

Reconhecimento de Modelos de Veículos

Conhecimento e Raciocínio Incertos

Descritores de Imagem

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO

Modelos ART Adaptive Ressonance Theory. Germano C. Vasconcelos Centro de Informática - UFPE

VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION - VGG

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Métodos de Deep Learning Aplicados a Candlestick como Estratégia de Investimento

RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS

Implementação de controlador PID fuzzy para otimização do controle de posição de um servomotor DC

Introdução a Inteligência Artificial

Visão Computacional. Prof. Leandro Augusto Frata Fernandes TCC Introdução à Ciência da Computação (2012.

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid

SEL364 Controle Não Linear Aplicado

INF 1771 Inteligência Artificial

3 INTELIGÊNCIA COMPUTACIONAL (IC)

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Figura Ampliação do gráfico da força amortecedora no fole em relação à velocidade.

Setor de Tecnologia - TC Engenharia Ambiental 2/2011. Prova 1. Matemática Aplicada I

Region Based CNNs. Francisco Calaça Xavier. Programa de pós-graduação em Ciências da Computação Mestrado e Doutorado. Instituto de Informática UFG

Redes Convolucionais Aplicadas em Visão Computacional

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO

Aprendizado de Máquina

Redes Neurais e Sistemas Fuzzy

Oferta de disciplinas para o período 2016/2

MODELAGEM DE SISTEMAS UTILIZANDO APRENDIZADO PARTICIPATIVO

2. Redes Neurais Artificiais

Transcrição:

Departamento de Engenharia Elétrica Prof. Adolfo Bauchspiess Faculdade de Tecnologia Laboratório de Automação e Robótica Universidade de Brasília 163848 INTRODUÇÃO AO CONTROLE INTELIGENTE NUMÉRICO - 2 /218 ENE/FT/UnB 2ª Prova 22 de novembro de 218, 1-12 Nome: Matrícula: As complexit rises, precise statements lose meaning and meaningful statements lose precision. Lotfi A. Zadeh Rational thoughts never drive people's creativit the wa emotions do. Neil degrasse Tson "Muitas vezes, problemas simples tem solução complexa e problemas complexos tem solução simples. R 1: Se x é A 1 e é B 1, então f 1 = p 1x + q 1 + r 1 R 2: Se x é A 2 e é B 2, então f 2 = p 2x + q 2 + r 2 A1 B1 w1 f1= p1x+ q1+ r1 X Y f= w1f1+ w2f2 w1+ w2 =w1f1+w2f2 w2 f2= p2x+ q2+ r2 x X Y A1 x X N w1f1 A2 f B1 Y N w2f2 B2 ANFIS bloco adaptativo O bloco fixo x

2ª Prova - 2 Sem. 218 163348 Introdução ao Controle Inteligente Numérico ENE/UnB 2/6 2ª PROVA ICIN 1º/218 1ª Questão (2,): Sistemas Fuzz são uma forma de sintetizar uma superfície de controle não linear. Obtenha, para o caso unidimensional a seguir, a curva de controle do sistema de inferência fuzz de Sugeno, = f(u). 1.8 2 18 Superfície de Controle Fuzz-Sugeno regra 1.6.4 f1 = 3 16 14.2 12 1 2 3 4 5 6 7 8 9 1 1 8 regra 2 1.8.6.4.2 1 2 3 4 5 6 7 8 9 1 f2 = u 1 6 4 2-2 -4-6 -8 regra 3 1.8.6.4.2 1 2 3 4 5 6 7 8 9 1 u A B C D E f3 = 2u -1 1 2 3 4 5 6 7 8 9 1 u A: = f1 = 3 B: = # $% $ &# ' % ' # $ &# ' = # $())&# ' (+,+-) # $ &# ' w - = 1.25u; w 8 = 1 +.5u; 3,75u + ( 1 +,5u)( u 1) =.25u =,5u8 1,25u + 4.25u C: = f2 = -u -1 D: = # '% ' &# > % > # ' &# > = # '(+,+-)&# > (8,) # ' &# > = w 8 = 7/3 u/3; w ) = 1 +.2u; (7/3 u/3)( u 1) + ( 1 +.2u)(2u) 7 3 u 3 1 +.2u E: = f3 = 2u

2ª Prova - 2 Sem. 218 163348 Introdução ao Controle Inteligente Numérico ENE/UnB 3/6 2ª Questão (2,) Assinale V Verdadeiro ou F Falso, justificando cada aspecto falso ou verdadeiro. a) A proposta da Lógica Fuzz, proposta originalmente por Mamdani, é emular a psicologia humana, em que graus de pertinência substituem as verdades absolutas. Um paradoxo é representado pelo grau de pertinência,5. Um valor fuzz de,4 seria quase um paradoxo. Algumas incongruências teóricas em relação à lógica de conjuntos clássica, no entanto, ainda precisam ser corrigidas. b) Uma máquina de lavar roupas fuzz é mais cara do que uma máquina de lavar roupas convencional pois precisa mais sensores e de processamento adicional, reduz, porém, o consumo de energia (só lava até estar limpo, e não um tempo pré-programado). Pode-se afirmar que a mesma estratégia de economia de energia seria possível numa máquina de lavar comercial equipada com um sensor de sujeira (foto-emissor com foto-detector na água mediriam a turbidez, grau-de-sujeira ) e uma look-up table. c) Os bonecos dinâmicos da empresa Deep Mind (Google) que aprendem a andar em labirintos são exemplos impressionantes de aprendizagem por reforço profundo. Um agente interage com o ambiente (segunda uma certa política) e obtêm recompensas ou punições imediatas e considera expectativas de recompensas acumuladas (futuras) para escolher a próxima ação. Tem-se uma sequência de experimentos : Estados Ações Recompensas Estados,..., que vão atualizando os valores de cada ação em cada estado. Pela Programação Dinâmica (otimização de processos decisórios discretos) de Bellman sabe-se que a solução ótima será encontrada. d) Aprendizado por reforço não pode, a rigor, ser considerado um treinamento supervisionado, pois a resposta desejada não é conhecida a priori. Para o problema do swing-up de um pêndulo sobre carro via aprendizado por reforço, por exemplo, são necessárias, muitas tentativas até que se obtenha sucesso. Como temos quatro variáveis de estado (posição e velocidade do carro, posição e velocidade angular da haste) é necessário usar aprendizagem por reforço aproximado (Rede Neural Artificial em lugar da tabela de valores). a) F Lógica fuzz foi proposta originalmente pro Zadeh. As incongruências em relação à lógica clássica são aceitas como compromisso de uma lógica multi-valorada e não precisam ser corrigidas. b) V a implementação da lógica fuzz pode ser feita em uma tabela look-up-table. c) F não existe garantia de que o ótimo será encontrado. O princípio de Bellman é utilizado para reduzir o espaço de busca. d) F, V Aprendizado por reforço aproximado pode ser utilizado, mas ainda seria possível utilizar uma tabela para armazenar os valores associados a cada estado discretizado.

2ª Prova - 2 Sem. 218 163348 Introdução ao Controle Inteligente Numérico ENE/UnB 4/6 3ª Questão (2,) Considere uma camada convolucional de uma rede neural profunda. Observe que, sem preenchimento, alguns pixels não são mapeados pela máscara na imagem de saída. a) Obtenha, em função de W1, W2 F, P e S, equações para as dimensões de saída (2, W2). - Imagem de entrada: 1 x W1 - Máscara (Filtro): F x F - Quantidade de Filtros: K - Preenchimento (Padding): P - Passo (Stride): S b) Obtenha agora (2, W2) para uma imagem de entrada de 32 x 32, F = 5, K = 6, P = e S = 1. a) W 8 = A $+B&8C + 1; D 8 = F $+B&8C + 1 D b) 28 x 28 (também disponível na questão 4)

2ª Prova - 2 Sem. 218 163348 Introdução ao Controle Inteligente Numérico ENE/UnB 5/6 4ª Questão (2,) Considere a rede neural convolucional (CNN) LeNet-5 (LeCunn et al, Gradient-based learning applied to document recognition, Proceedings IEEE, Nov. 1998). a) (1,) Uma forma de se reduzir o número de parâmetros a serem treinados em camadas CNN é conhecido por compartilhamento de pesos ( weight sharing ). O que significa isto e por quê funciona (em comparação a uma camada densa). b) (,5) Qual a finalidade dos mapas de características (feature maps)? c) (,5) Apresente os parâmetros utilizados em sua rede CNN do exercício 3 de ICIN, justificando a escolha dos parâmetros. a) Numa camada de convolução o mesmo filtro (com os mesmos pesos) é aplicado ao longo de toda a imagem de entrada. Se o objetivo é detectar linhas horizontais na imagem ( feature padrão na imagem), quer se detectar linha horizontais em qualquer posição na imagem. Não é necessário um filtro diferente para diferentes regiões na imagem. Uma camada densa tem pesos individualizados, é como se a máscara (filtro) tivesse a dimensão da imagem de entrada. Uma camada convolucional utiliza vários filtro, cada um para uma característica que se queira extrair. b) É mais fácil reconhecer objetos a partir de suas características. Se, por exemplo, tiver rodas pode ser um carro. Se tiver nariz, pode ser uma pessoa. Se tiver asas, pode ser avião. A maioria dos carros/pessoas/aviões compartilha características comuns, a Rede Neural Convolucional ( Profunda ) procura estas características em imagens com invariância a posição, invariância a tamanho, invariância a cor, invariância a rotação etc. As features são mais fáceis de reconhecer e os objetos são classificados pelas features que tem em comum. c)

2ª Prova - 2 Sem. 218 163348 Introdução ao Controle Inteligente Numérico ENE/UnB 6/6 5ª Questão (2,): Um sistema ANFIS Sugeno de 1ª ordem (linear) deve ser utilizado para extrapolar uma série temporal caótica. dx( t),2x( t -t ) = 1 dt 1+ x( t -t ) -,1x ( t), com x()=1,2 e τ = 17. Isto é, a função f deve ser aprendida a partir de certas amostras passadas: x(t+6) = f (x(t), x(t-5), x(t-1), x(t-2)) Cada sinal de entrada dos ANFIS pode ser representado por duas funções de pertinência do tipo gbellmf. a) Quantos parâmetros das premissas e quantos das consequências precisam ser adaptados? b) Descreva de forma sucinta o treinamento ANFIS (antecedentes e consequentes). a) O sistema Sugeno de 1ª ordem tem 4 entradas e uma saída. Como cada entrada é descrita por duas funções de pertinência gbellmf, temos 3 x 2 x 4 = 24 parâmetros das premissas (3 parâmetros gbell x 2 funções x 4 entradas) As regras são do tipo: R1: se xt é A1 e xt5 é B1 e xt1 é C1 e xt2 é D1 então xtp6 = p1*xt + q1*xt5 + r1*xt1+s1*xt2 + o1 R2: se xt é A2 e xt5 é B1 e xt1 é C1 e xt2 é D1 então xtp6 = p2*xt + q2*xt5 + r2*xt1+s2*xt2 + o2 R3: se xt é A1 e xt5 é B2 e xt1 é C1 e xt2 é D1 então xtp6 = p3*xt + q3*xt5 + r3*xt1+s3*xt2 + o3... R16: se xt é A2 e xt5 é B2 e xt1 é C2 e xt2 é D2 então xtp6 = p16*xt + q16*xt5 + r16*xt1+s16*xt2 + o16 Existem portanto 16 regras a 5 parâmetros das conseqüências 8 parâmetros das conseqüências. b) O treinamento é feito em duas etapas: Feeforward e Backward - No passo feedforward fixam se os parâmetros das premissas e obtêm se a saída da rede em função de (pi, qi, ri e si). A saída é combinação linear destes parâmetros. É feito um ajuste destes parâmetros pelo método dos mínimos quadrados. - No passo backward é feita a retropropagação do erro para ajustar pelo método do gradiente descendente, os parâmetros das premissas. Nesta etapa os parâmetros das conseqüências são mantidos fixos. Obs: O cálculo do sinal u no modelo de Sugeno é feito por Grau de compatibilidade de cada regra: h (x J, x JK, x J-L, x J8L ) = μ BNO (x J ) μ BNOQ (x JK ) μ BNO$R (x J-L ) μ BNO'R (x J8L ) Normalização da contribuição de cada regra ativa: w (x J, x JK, x J-L, x J8L ) = S T (N O,N OQ,N O$R,N O'R ) Média ponderada das regras ativas normalizadas: $V TW$ S T (N O,N OQ,N O$R,N O'R ) -X x J&X = Y- w (x J, x JK, x J-L, x J8L ) (p x J + q x JK + r x J-L + s x J8L + o )