Organização e Arquitetura de Computadores I. de Computadores



Documentos relacionados
ARQUITETURA DE COMPUTADORES

Concurso Público para provimento de cargo efetivo de Docentes. Edital 20/2015 CIÊNCIA DA COMPUTAÇÃO I Campus Rio Pomba

Marcos da Arquitetura de Computadores (1)

Paralelismo a Nível de Instrução

28/9/2010. Paralelismo no nível de instruções Processadores superescalares

Organização e Arquitetura de Computadores I. de Computadores

Leia atentamente as questões e boa prova! Cada resposta vale 1 ponto! Data: 00/00/20 Nome aluno:

Organização e Arquitetura de Computadores I

Sistema de Memórias de Computadores

Introdução à Engenharia de Computação

2. A influência do tamanho da palavra

GABARITO COMENTADO SISTEMAS OPERACIONAIS. PROF. Cláudio de C. Monteiro, Evanderson S. de Almeida, Vinícius de M. Rios

Arquitetura de Computadores II

armazenamento (escrita ou gravação (write)) recuperação (leitura (read))

Circuitos Lógicos Registradores e Contadores

ARQUITETURA DE COMPUTADORES

Organização e Arquitetura de Computadores I

Introdução. Hardware (Parte II) Universidade Federal de Campina Grande Departamento de Sistemas e Computação. joseana@computacao.ufcg.edu.

Unidade Central de Processamento (CPU) Processador. Renan Manola Introdução ao Computador 2010/01

Sistemas Computacionais II Professor Frederico Sauer

e financas/legislacao/lei%20no% %20 %20PPA%20 % pdf/view

Introdução à Organização de Computadores. Execução de Programas Prof. Rossano Pablo Pinto, Msc. rossano at gmail com 2 semestre 2007

PPGCA UTFPR Campus Curitiba. Mestrado Profissional em Computação Aplicada Exame de Seleção Turma Caderno de Questões

Avaliação de Desempenho

LÓGICA DE PROGRAMAÇÃO. Vitor Valerio de Souza Campos

Organização e Arquitetura de Computadores. Capítulo 13 Paralelismo no nível de instruções

Introdução à Arquitetura de Computadores

Investigação Operacional

Organização de Computadores Como a informação é processada?

Paralelismo. Computadores de alto-desempenho são utilizados em diversas áreas:

Parte V Linguagem de Programação

ORGANIZAÇÃO DE COMPUTADORES MÓDULO 8

Programação: Estruturas de seleção

CAPÍTULO 2 ORGANIZAÇÃO DE COMPUTADORES

Arquitetura de Computadores - Processadores Superescalares. por Helcio Wagner da Silva

INF 1010 Estruturas de Dados Avançadas

Invenções Implementadas por Computador (IIC) Patentes

ALGORITMOS E FLUXOGRAMAS

Aulas 17 & 18. Comutação Rápida a Pacote. Eytan Modiano MIT

Pipeline. Todos os estágios devem estar prontos ao mesmo tempo para prosseguir.

Exercícios de Circuitos Combinacionais

Sistemas Microcontrolados

Avaliação de Desempenho de Sistemas

Introdução à Arquitetura de Computadores. Prof.ª Ms. Elaine Cecília Gatto

Problema: Solução: Vantagens da estruturação em Níveis: Introdução INTRODUÇÃO À ARQUITETURA DE COMPUTADORES. Introdução

1 CIRCUITOS COMBINACIONAIS

O processador é um dos elementos componentes do computador moderno, sendo responsável pelo gerenciamento de todo o computador.

INSTITUI CARREIRAS DO GRUPO DE ATIVIDADES DE EDUCAÇÃO SUPERIOR DO

13/10/11 TIPOS DE UTILITÁRIOS UTILITÁRIOS 0798 INTRODUÇÃO À PROGRAMAÇÃO TIPOS DE UTILITÁRIOS TIPOS DE UTILITÁRIOS

CONCEITOS BÁSICOS PARA A CONSTRUÇÃO DE ALGORITMOS PARA COMPUTADORES. Isac Aguiar isacaguiar.com.br isacaguiar@gmail.com

Tais operações podem utilizar um (operações unárias) ou dois (operações binárias) valores.

UNIVERSIDADE FEDERAL DE CAMPINA GRANDE CENTRO DE ENGENHARIA ELÉTRICA E INFORMÁTICA

Figura 5.1.Modelo não linear de um neurônio j da camada k+1. Fonte: HAYKIN, 2001

ORIENTAÇÕES GERAIS PARA PREPOSTOS COMPANHIA DE ÁGUAS E ESGOTOS DO RIO GRANDE DO NORTE CAERN

FACULDADE CAMPO LIMPO PAULISTA MESTRADO EM CIÊNCIA DA COMPUTAÇÃO. Projeto e Análise de Algoritmos II Lista de Exercícios 2

29/3/2011. Primeira unidade de execução (pipe U): unidade de processamento completa, capaz de processar qualquer instrução;

ANÁLISE DE DESEMPENHO DA PARALELIZAÇÃO DO CÁLCULO DE NÚMEROS PRIMOS UTILIZANDO PTHREAD E OPENMP 1

Arquitetura de processadores: RISC e CISC

Caracterização de desempenho em programas paralelos

Introdução à Organização de Computadores. Sistemas da Computação Prof. Rossano Pablo Pinto, Msc. rossano at gmail com 2 semestre 2007

Organização e Arquitetura de Computadores. Hugo Barros @hugobarros.com.br

Introdução. Hardware (Parte I) Universidade Federal de Campina Grande Departamento de Sistemas e Computação. joseana@computacao.ufcg.edu.

ARQUITETURA DE COMPUTADORES

Eduardo Bezerra. Editora Campus/Elsevier

Exercícios de Revisão Paraná Previdência 2013 Professor Ricardo Beck Disciplina: Informática

Introdução. A Informação e sua Representação (Parte II) Universidade Federal de Campina Grande. Unidade Acadêmica de Sistemas e Computação

LINEAR EQUIPAMENTOS RUA SÃO JORGE, TELEFONE : SÃO CAETANO DO SUL - SP - CEP:

ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES INTRODUÇÃO AO PARALELISMO: PROCESSADORES SUPERESCALARES. Prof. Dr. Daniel Caetano

É importante que nos atenhamos a alguns aspectos importantes sobre banco de dados:

Arquitetura de Computadores I

Arquitetura e Organização de Computadores

Resolvendo problemas com logaritmos

Memória primária Prof. Rômulo Calado Pantaleão Camara. Carga Horária: 60h

Sistemas Operacionais. Prof. André Y. Kusumoto

Introdução ao Processamento Paralelo

Olimpíada Brasileira de Robótica 2008

Circuitos de Memória: Tipos e Funcionamento. Fabrício Noveletto

Criar um formulário do tipo Diálogo modal ; Alterar a cor de fundo de um formulário; Inserir botões de comando e caixas de texto;

Universidade da Beira Interior Departamento de Matemática. Fábrica 1 Fábrica 2 Fábrica 3 Mina Mina

CAPÍTULO 4 CIRCUITOS SEQUENCIAIS II: CONTADORES ASSÍNCRONOS

B D. Árvores Ordenadas

Universidade Federal de Santa Catarina Departamento de Informática e Estatística Bacharelado em Ciências da Computação

Capítulo 3. Avaliação de Desempenho. 3.1 Definição de Desempenho

COMANDO DA AERONÁUTICA ESCOLA DE ESPECIALISTAS DE AERONÁUTICA SUBDIVISÃO DE ADMISSÃO E DE SELEÇÃO

Eng Civil Washington Peres Núñez Dr. em Engenharia Civil pela Universidade Federal do Rio Grande do Sul

FÍSICA LISTA DE EXERCÍCIOS APOSTILA 13. c) o objetivo do resistor R neste circuito é transformar energia elétrica em energia luminosa.

SERVIÇO PÚBLICO FEDERAL SECRETARIA DE EDUCAÇÃO PROFISSIONAL E TECNOLÓGICA INSTITUTO FEDERAL GOIANO CÂMPUS POSSE-GO

Computador. 1982: os computadores são ferramentas que nos permitem fazer cálculos rápida e comodamente

Simulado Informática Concurso Correios - IDEAL INFO

Introdução à Engenharia de Computação

MODELAGEM E SIMULAÇÃO

Escalas. Antes de representar objetos, modelos, peças, A U L A. Nossa aula. O que é escala

RESOLUÇÃO ARES-PCJ Nº 68, DE 11 DE DEZEMBRO DE 2014

SISTEMAS OPERACIONAIS SISTEMAS OPERACIONAIS. 2º TRIMESTRE Patrícia Lucas

Algoritmos Estruturas Seqüenciais. José Gustavo de Souza Paiva

Organização de Computadores 1. Prof. Luiz Gustavo A. Martins

Memória RAM. A memória RAM evolui constantemente. Qual a diferença entre elas? No clock (velocidade de comunicação com o processador)

Introdução à Arquitetura de Computadores. Renan Manola Introdução ao Computador 2010/01

BACHARELADO EM SISTEMAS DE INFORMAÇÃO EaD UAB/UFSCar Sistemas de Informação - prof. Dr. Hélio Crestana Guardia

Transcrição:

Universidade Federal de Campina Grande Departamento de Sistemas e Computação Curso de Bacharelado em Ciência da Computação Organização e Arquitetura de Computadores I Organização Básica B de Computadores (Exercícios cios Resolvidos, Parte II) Prof a Joseana Macêdo Fechine Régis de Araújo joseana@computacao.ufcg.edu.br Carga Horária: 60 horas 1

1. Relacione a coluna da esquerda com a coluna da direita. (I) Multicore (A) Múltiplos pipelines que operam em paralelo. (II) Superpipeline (B) Execução de instruções fora de ordem em um pipeline. (III) Superescalar (C) Pipelines com grande número de estágios. (IV) Pipeline dinâmico (D) Múltiplos processadores compartilhando um espaço de endereços. (V) Multiprocessadores (E) Múltiplos processadores em um único encapsulamento. Assinale a alternativa que contém a associação correta. a) I-B, II-A, III-C, IV-E, V-D. b) I-C, II-A, III-B, IV-D, V-E. c) I-D, II-E, III-B, IV-A, V-C. d) I-E, II-C, III-A, IV-B, V-D. e) I-E, II-C, III-A, IV-D, V-B. 2

1. Relacione a coluna da esquerda com a coluna da direita. (I) Multicore (A) Múltiplos pipelines que operam em paralelo. (II) Superpipeline (B) Execução de instruções fora de ordem em um pipeline. (III) Superescalar (C) Pipelines com grande número de estágios. (IV) Pipeline dinâmico (D) Múltiplos processadores compartilhando um espaço de endereços. (V) Multiprocessadores (E) Múltiplos processadores em um único encapsulamento. Assinale a alternativa que contém a associação correta. a) I-B, II-A, III-C, IV-E, V-D. b) I-C, II-A, III-B, IV-D, V-E. c) I-D, II-E, III-B, IV-A, V-C. d) I-E, II-C, III-A, IV-B, V-D. e) I-E, II-C, III-A, IV-D, V-B. 3

2. A teoria da computabilidade, em conjunto com a álgebra booleana, garante que é possível construir um processador com um conjunto de instruções unitário que possua capacidade de resolver qualquer problema solúvel. Suponha que exista uma organização de computador convencional, dotada de um processador de uma instrução, memória e periféricos de entrada e saída. Com relação à instrução única que o processador executa, considere as afirmativas a seguir. I. Deve obrigatoriamente fazer acesso a um dispositivo de entrada e saída. II. Deve obrigatoriamente ler e escrever na memória principal do processador. III.Deve obrigatoriamente calcular uma soma de produtos de literais booleanos. IV.Deve obrigatoriamente realizar um teste, e sua ação deve ser condicionada ao resultado deste teste. Assinale a alternativa correta. a) Somente as afirmativas I e II são corretas. b) Somente as afirmativas II e IV são corretas. c) Somente as afirmativas III e IV são corretas. d) Somente as afirmativas I, II e III são corretas. e) Somente as afirmativas I, III e IV são corretas. 4

2. A teoria da computabilidade, em conjunto com a álgebra booleana, garante que é possível construir um processador com um conjunto de instruções unitário que possua capacidade de resolver qualquer problema solúvel. Suponha que exista uma organização de computador convencional, dotada de um processador de uma instrução, memória e periféricos de entrada e saída. Com relação à instrução única que o processador executa, considere as afirmativas a seguir. I. Deve obrigatoriamente fazer acesso a um dispositivo de entrada e saída. II. Deve obrigatoriamente ler e escrever na memória principal do processador. III.Deve obrigatoriamente calcular uma soma de produtos de literais booleanos. IV.Deve obrigatoriamente realizar um teste, e sua ação deve ser condicionada ao resultado deste teste. Assinale a alternativa correta. a) Somente as afirmativas I e II são corretas. b) Somente as afirmativas II e IV são corretas. c) Somente as afirmativas III e IV são corretas. d) Somente as afirmativas I, II e III são corretas. e) Somente as afirmativas I, III e IV são corretas. 5

3. Um processador RISC é implementado em duas versões de organização síncrona: uma monociclo, em que cada instrução executa em exatamente um ciclo de relógio, e uma versão pipeline de 5 estágios. Os estágios da versão pipeline são: (1) busca de instrução, (2) busca de operandos, (3) execução da operação, (4) acesso à memória e (5) atualização do banco de registradores. A frequência máxima de operação das organizações foi calculada em 100 MHz para a versão monociclo e 400 MHz para a versão pipeline. Um programa X que executa 200 instruções é usado para comparar o desempenho das organizações. Das 200 instruções, apenas 40% fazem acesso à memória, enquanto as demais operam apenas sobre registradores internos da organização. Assuma que o programa não apresenta nenhum conflito de dados ou de controle entre instruções que podem estar simultaneamente dentro do pipeline da segunda organização. Assim, o tempo de execução do programa X nas organizações monociclo e pipeline é, respectivamente: a) 2.000 nanossegundos e 510 nanossegundos. b) 2.000 nanossegundos e 500 nanossegundos. c) 2.000 nanossegundos e 2.300 nanossegundos. d) 2.300 nanossegundos e 500 nanossegundos. e) 2.300 nanossegundos e 510 nanossegundos. 6

3. Um processador RISC é implementado em duas versões de organização síncrona: uma monociclo, em que cada instrução executa em exatamente um ciclo de relógio, e uma versão pipeline de 5 estágios. Os estágios da versão pipeline são: (1) busca de instrução, (2) busca de operandos, (3) execução da operação, (4) acesso à memória e (5) atualização do banco de registradores. A frequência máxima de operação das organizações foi calculada em 100 MHz para a versão monociclo e 400 MHz para a versão pipeline. Um programa X que executa 200 instruções é usado para comparar o desempenho das organizações. Das 200 instruções, apenas 40% fazem acesso à memória, enquanto as demais operam apenas sobre registradores internos da organização. Assuma que o programa não apresenta nenhum conflito de dados ou de controle entre instruções que podem estar simultaneamente dentro do pipeline da segunda organização. Assim, o tempo de execução do programa X nas organizações monociclo e pipeline é, respectivamente: a) 2.000 nanossegundos e 510 nanossegundos. b) 2.000 nanossegundos e 500 nanossegundos. c) 2.000 nanossegundos e 2.300 nanossegundos. d) 2.300 nanossegundos e 500 nanossegundos. e) 2.300 nanossegundos e 510 nanossegundos. 7

Observações: Organização da máquina Versão 1 Período para execução de uma instrução [1/(100 x 10 6 )] s = 10 ns Período para execução de 200 instruções 200 x 10 ns = 2.000 ns 8

Pipeline: 9

Observações: Organização da máquina segundo uma estrutura de um pipeline com 5 estágios, considerando cada módulo como indivisível e sem atraso. Período do pipeline [1/(400 x 10 6 )] s = 2,5 ns Período para execução de 200 instruções (Observar o princípio da Figura 1) 40% fazem acesso à memória (80 instruções utilizam 5 estágios) 60% operam apenas sobre registradores internos da organização (120 instruções utilizam 4 estágios). 10

Observações: Organização da máquina segundo uma estrutura de um pipeline com 5 estágios, considerando cada módulo como indivisível e sem atraso. Estágio 1: 200 períodos de clock (200 instruções) Estágio 2: tem início no segundo período de clock para a instrução 1. Logo, para execução deste estágio em todas as instruções, temse mais um período de clock em relação ao estágio anterior; Estágio 3:... Importante: 40% e 60% (descritos anteriormente) estarão inseridos no tempo necessários à execução do pior caso (5 estágios). Logo, o período para execução das 200 instruções é: (200 + 1 + 1 +1 +1) x 2,5 ns = 510 ns 11

Exercícios (Poscomp 2010) 4. Um processador tem um ciclo de operação igual a 20ns. Ele gasta dois ciclos para fazer a busca de uma instrução, um ciclo para decodificar cada instrução, dois ciclos para buscar os operandos necessários e três ciclos para executar a instrução e armazenar o resultado correspondente em algum registrador. Se a organização desta máquina for estritamente sequencial, qual será o período de execução de uma instrução? Se utilizarmos latches de 2ns de atraso e considerarmos cada módulo como indivisível, qual será o período do pipeline se a máquina for organizada segundo uma estrutura de quatro estágios? a) Respectivamente 20ns e 22ns. b) Respectivamente 20ns e 42ns. c) Respectivamente 20ns e 62ns. d) Respectivamente 160ns e 42ns. e) Respectivamente 160ns e 62ns. 12

Exercícios (Poscomp 2010) 4. Um processador tem um ciclo de operação igual a 20ns. Ele gasta dois ciclos para fazer a busca de uma instrução, um ciclo para decodificar cada instrução, dois ciclos para buscar os operandos necessários e três ciclos para executar a instrução e armazenar o resultado correspondente em algum registrador. Se a organização desta máquina for estritamente sequencial, qual será o período de execução de uma instrução? Se utilizarmos latches de 2ns de atraso e considerarmos cada módulo como indivisível, qual será o período do pipeline se a máquina for organizada segundo uma estrutura de quatro estágios? a) Respectivamente 20ns e 22ns. b) Respectivamente 20ns e 42ns. c) Respectivamente 20ns e 62ns. d) Respectivamente 160ns e 42ns. e) Respectivamente 160ns e 62ns. 13

Exercícios (Poscomp 2010) Observações: Um sinal de relógio comum sincroniza os latches da pipeline em cada estágio, e dessa forma todos os latches guardam os dados produzidos de cada estágio ao mesmo tempo. O relógio vai assim "bombeando" as instruções ao longo do pipeline. No início de um período de relógio, ou ciclo de relógio, os dados e controle das instruções parcialmente processadas são mantidos num pipeline latch até ao final desse ciclo. 14

Exercícios (Poscomp 2010) Observações: Exemplo de processador sem pipeline e com pipeline. 15

Exercícios (Poscomp 2010) Observações: O tempo de ciclo τ de um pipeline de instrução é o tempo requerido para avançar um conjunto de instruções de um estágio. O tempo de ciclo pode ser determinado da seguinte forma: τ = max( τ ) + d = τ + d, 1 i m i k em que: τ m k = atraso máximo de estágio = número de estágios do pipeline de instrução d = tempo necessário para propagar sinais e dados de um estágio para o próximo Em geral, d é equivalente ao pulso de um relógio e τm >> d. 16

Exercícios (Poscomp 2010) Observações: Informações fornecidas na questão: 1 ciclo de operação = 20 ns; 2 ciclos para busca da instrução; 1 ciclo para decodificação da instrução; 2 ciclos para busca dos operandos necessários; 3 ciclos para execução da instrução e armazenamento do resultado correspondente em algum registrador. 17

Exercícios (Poscomp 2010) Observações: Organização da máquina estritamente sequencial Período de execução de uma instrução (2x20 + 1x20 + 2x20 + 3x20) ns = (40 + 20 + 40 + 60) = 160 ns 18

Exercícios (Poscomp 2010) Observações: Organização da máquina segundo uma estrutura de um pipeline com quatro estágios, considerando cada módulo como indivisível e a utilização de latches de 2ns de atraso. Período do pipeline = 62 ns Como foi obtido este valor? 19