Multiprogramação leve em arquiteturas multi-core

Tamanho: px
Começar a partir da página:

Download "Multiprogramação leve em arquiteturas multi-core"

Transcrição

1 Multiprogramação leve em arquiteturas multi-core Prof. Dr. Prof. Dr. Universidade de Santa Cruz do Sul Santa Cruz do Sul,. 1

2 Sumário Introdução Arquiteturas multi-core Programação multithread Ferramentas de programação Prática de programação Considerações finais 2

3 Sumário Introdução Arquiteturas multi-core Programação multithread Ferramentas de programação Prática de programação Considerações finais 3

4 Sumário Introdução Arquiteturas multi-core Programação multithread Ferramentas de programação Prática de programação Considerações finais 3/Julho 8:00 às 10:00 3/Julho 13:30 às 15:30 4/Julho 13:30 às 15:30 4

5 Introdução Objetivos do curso Arquitetura de von Neumann Lei de Moore Arquiteturas paralelas Programação concorrente Motivação da programação em multi-core 5

6 Objetivos do curso Desenvolver as habilidades de programação concorrente em arquiteturas multi-core. Discutir os benefícios da utilização de arquiteturas multi-core no desenvolvimento de programas concorrentes. Apresentar um conjunto de ferramentas para desenvolvimento de programas concorrentes em arquiteturas multi-core. 6

7 Objetivos do curso Conceitos da arquitetura multi-core Evolução Arquitetura básica Produtos de mercado Programação concorrente Conceitos e princípios Programação concorrente e paralela Componentes de um programa concorrente Multiprogramação leve 7

8 Objetivos do curso Conceitos da arquitetura multi-core Programação concorrente Multiprogramação leve Fluxo de execução e sincronização Ferramentas de programação POSIX threads OpenMP Prática de programação 8

9 Objetivos do curso Conceitos da arquitetura multi-core Programação concorrente Multiprogramação leve Prática de programação Técnicas para otimização de desempenho 9

10 Arquitetura de von Neumann Modelo de von Neumann (von Neumann, 1945) Execução seqüencial Memória para dados e programas Efeito colateral Memória Processador Entrada Unidade de controle Unidade lógica e aritmética Saída Banco de registradores 10

11 Arquitetura de von Neumann Modelo de von Neumann Execução seqüencial Memória para dados e programas Efeito colateral Gargalo de von Neumann Memória Processador Entrada Unidade de controle Unidade lógica e aritmética Saída Banco de registradores 11

12 Arquitetura de von Neumann Modelo de von Neumann Gargalo de von Neumann Introdução de cache Memória Cache Processador Entrada Unidade de controle Unidade lógica e aritmética Saída Banco de registradores 12

13 Arquitetura de von Neumann Modelo de von Neumann Outras otimizações introduzem paralelismo de execução Pipeline Incorpora o esquema proposto por cadeias de produção Como as unidades funcionais do processador são responsáveis por atividades independentes elas podem operar simultaneamente Um pipeline em 3 estágios pode permitir a execução simultânea de até 3 instruções: Busca instrução Decodifica Executa Superescalar I 1 I 2 I 3 I 4 I 5 I 6 I 1 I 2 I 3 I 4 I 5 I 6 I 1 I 2 I 3 I 4 I 5 I 6 13

14 Arquitetura de von Neumann Modelo de von Neumann Outras otimizações introduzem paralelismo de execução Pipeline Superescalar Permite a execução de n instruções simultaneamente (comum n=4) Suposição: as instruções requerem unidades de processamento disjuntas Exemplo: utilização de aritmética inteira e de ponto flutuante por duas instruções consecutivas É comum também que o hardware duplique recursos de processamento mais freqüentemente utilizados 14

15 Arquitetura de von Neumann Modelo de von Neumann Outras otimizações introduzem paralelismo de execução Pipeline Superescalar Pipeline+Superescalar Em ambos casos o programador pode escalonar as instruções no seu código para tirar proveito do paralelismo de baixo nível oferecido Evitar saltos Evitar manipular dados globais Agrupar instruções diferentes Compiladores, em geral, empregam técnicas que otimizam o código de forma satisfatória 15

16 Arquiteturas paralelas Classificação de Flynn (Flynn, 1972) Segundo fluxos de controle e de dados Dados Controle Simples Múltiplo Simples SISD von Neumann MISD dataflow, pipeline Múltiplo SIMD array, sistólico MIMD multicomputadores, multiprocessadores 16

17 Arquiteturas paralelas Classificação de Flynn (Flynn, 1972) Classificação por compartilhamento de memória Extensão a classificação de Flynn para a classe MIMD considerando a apresentação da memória MIMD Fracamente acoplado Espaço de endereçamento múltiplo Fortemente acoplado Espaço de endereçamento único NORMA NOn-Remote Memory Access UMA Uniform Memory Access NUMA Non Uniform Memory Access 17

18 Arquiteturas paralelas UMA: Uniform Memory Access Multiprocessador Memória global a todos os processadores Tempo de acesso idêntico a qualquer endereço de memória P 1 P 2... P p Meio de comunicação M 1... M m Configuração de uma máquina UMA com p processadores e m módulos de memória 18

19 Arquiteturas paralelas UMA: Uniform Memory Access Multiprocessador Memória global a todos os processadores Tempo de acesso idêntico a qualquer endereço de memória Cada processador pode contar com uma cache própria P 1 P 2... P p Meio de comunicação M 1... M m Configuração de uma máquina UMA com p processadores e m módulos de memória 19

20 Arquiteturas paralelas UMA: Uniform Memory Access SMP: Symmetric MultiProcessor P 1 P 2... P p Barramento ou crossbar Memória Os processadores são idênticos e operam como definido pela arquitetura von Neumann O acesso a memória é compartilhado 20

21 Programação concorrente Concorrência Possibilidade de execução simultânea de dois ou mais fluxos de execução, não impedindo disputa por recursos Importante: a definição inclui a idéia de disputa por recursos mas não é restrita à ela! Ótica de Sistemas Operacionais Mais ainda, concorrência incorpora a idéia de que existe uma convergência dos fluxos para um ponto comum Uma eventual sincronização A produção do resultado final E também para idéia de ação colaborativa 21

22 Programação concorrente Concorrência Indica independência temporal O número de atividades concorrentes pode ser maior que a quantidade de recursos de processamento disponíveis Paralelismo Indica execução simultânea A quantidade de recursos de processamento disponível permite que duas ou mais atividades sejam executadas simultaneamente É usual utilizar a expressão programação paralela para o tipo de programação focada em desempenho Na nossa terminologia, programação paralela e programação concorrente são utilizadas com o mesmo significado 22

23 Programação concorrente Diversos níveis de concorrência Intra-instrução CISC Complex Instruction Set Computer, superescalares Entre instruções Hardware pipeline, registradores vetoriais X De bloco Diretivas paralelizantes, compiladores paralelizantes Procedimental Funções, procedimentos, subprogramas De processos Troca de mensagens De aplicações Grades computacionais Nosso escopo: Multiprogramação leve 23

24 Motivação da programação em multi-core Tendência Limites tecnológicos para aumento de desempenho com foco no aumento da freqüência de clock Arquiteturas com menor consumo de energia Grande problema da sociedade moderna Ainda mais cores no futuro próximo Facilidade de exploração Reflete naturalmente o modelo de programação multithread Suportado pelos SOs atuais Oportunidade Migração das maioria das aplicações desenvolvidas para mono-core Aumento de desempenho Execução paralela de aplicações em HW de baixo custo 24

25 Sumário Introdução Arquiteturas multi-core Programação multithread Ferramentas de programação Prática de programação Considerações finais 25

26 Arquiteturas multi-core Arquitetura SMP Multiprocessamento em um chip O multi-core Produtos comerciais 26

27 Arquitetura SMP Symmetric MultiProcessor Arquitetura paralela dotada de um conjunto de processadores idênticos (simétricos) compartilhando acesso a uma área de memória comum Estado Estado Estado CPUs Interrupção Interrupção Interrupção ULA ULA ULA Memória 27

28 Arquitetura SMP Symmetric MultiProcessor Arquitetura paralela dotada de um conjunto de processadores idênticos (simétricos) compartilhando acesso a uma área de memória comum SO único responsável pelo escalonamento de atividades (fluxos de execução) entre os processadores Cada CPU replica todo conjunto de recursos necessários à execução de um fluxo. Fator limitante de desempenho: contenção no acesso à memória 28

29 Arquitetura SMP Symmetric MultiProcessor Fator limitante de desempenho: contenção no acesso à memória Alternativa: adição de memória cache Estado Estado Estado CPUs Interrupção Interrupção Interrupção ULA ULA ULA Cache Cache Cache Memória 29

30 O multi-core Tecnologia em hardware na qual múltiplos cores são integrados em um único chip Multiplicação total dos recursos de processamento CPUs (cores) Processador (chip) Estado Interrupção Estado Interrupção Estado Interrupção ULA ULA ULA Cache Cache Cache Cache Memória 30

31 O multi-core Tecnologia em hardware na qual múltiplos cores são integrados em um único chip Multiplicação total dos recursos de processamento Grande vantagem: compatível com os códigos existentes! 31

32 O multi-core Com cache L2 privada por core L2 L1 Código L1 Dados Core 1 Core 2 L1 Código L1 Dados L2 Memória Barramento Com cache L2 compartilhada L1 Código L1 Dados Core 1 Core 2 L1 Código L1 Dados Memória Barramento L2 32

33 O multi-core Comparativo visão macro Estado Estado Estado Estado Estado Interrupção Interrupção Interrupção Interrupção Interrupção ULA ULA ULA ULA Cache Cache Cache Cache Memória Memória Processador HyperThreading Multiprocessador SMP Estado Interrupção Estado Interrupção Estado Interrupção ULA ULA ULA Cache Memória Processador multi-core 33

34 Produtos comerciais AMD Barcelona Quad-Core Opteron 64 bits, 4 cores, L2 privada, L3 compartilhada Kuma, Rana - AMD Athlon TM X2 Dual-Core 32/64 bits, 2 cores, L2 privada FASN8 8 cores 2007 Intel Montecito Itanium 2 64 bits, 2 cores, L2 e L3 privada Dempsey Xeon bits, 2 cores, L2 privada, HT Yonah Core TM Duo / Core TM 2 / Core 2 TM Extreme 32/64 bits, 2/4 cores, L2 compartilhada SUN Niagara UltraSPARC T1 64 bits, 4/6/8 cores, L2 privada 34

35 Produtos comerciais Hardware Toda industria de computadores tem opções Laptops Desktops Servidores Software Ferramentas de desenvolvimento Compiladores Depuração Desempenho Questão de licença Depende da opção do fornecedor Exemplos: Microsoft: por processador, não por core Oracle: por core, com fator de redução por core em processador multicore VMWare: por processador, com limite de 4 cores/processador 35

36 Ilustração Multi-core architecture Fonte: intel.com Explore a dual core Opteron TM Fonte: amd.com Imagem ilustrativa 36

37 Sumário Introdução Arquiteturas multi-core Programação multithread Ferramentas de programação Prática de programação Considerações finais 37

38 Programação multithread Programação concorrente Thread Casos de estudo Paralelismo de tarefas Paralelismo de dados 38

39 Programação concorrente Programação concorrente Voltada às questões da aplicação Programação paralela Voltada às questões do hardware disponível Execução concorrente Competição no acesso a recursos de hardware Execução paralela Replicação de recursos de hw permite simultaneidade 39

40 Programação concorrente Programação concorrente, pois A programação concorrente inclui a programação paralela Permite focar nas questões da aplicação Ou seja, não requer do programador conhecimentos sobre o hardware paralelo disponível Idealmente: alto grau de portabilidade Considerando que a ferramenta de programação possui um modelo de execução eficiente 40

41 Programação concorrente Programação concorrente Extensão ao paradigma Imperativo Contexto de trabalho no curso Execução segundo a arquitetura de von Neumann Programa seqüencial é composto por: Uma seqüência de instruções Um conjunto de dados Execução seqüencial Instruções modificam estados de memória Efeito colateral A execução de uma instrução implica na alteração de um estado (posição de memória) 41

42 Programação concorrente Programação concorrente Extensão ao paradigma Imperativo Execução segundo a arquitetura de von Neumann Execução seqüencial: I1: MOV DX, 0 I2: MOV AX, [313] I3: ADD DX, AX I4: DEC AX I5: CMP AX, 0 I6: JNE I3 I7: MOV AX, [313] I8: CALL RotinaImpressão Efeito da execução de uma instrução: Escrita em memória Comunicação 42

43 Programação concorrente Programação concorrente Extensão ao paradigma Imperativo Execução segundo a arquitetura de von Neumann Execução seqüencial: I1: MOV DX, 0 I1 I2 I7 I2: MOV AX, [313] I3: ADD DX, AX I3 I8 I4: DEC AX I5: CMP AX, 0 I4 I6: JNE I3 I7: MOV AX, [313] I5 I8: CALL RotinaImpressão I6 43

44 Programação concorrente Programação concorrente Extensão ao paradigma Imperativo Execução segundo a arquitetura de von Neumann Execução seqüencial: Unidade execução: a instrução Comunicação: alteração de um estado de memória Sincronização: implícita, pois uma instrução não é executada antes que a anterior termine Execução concorrente deve, igualmente, definir: A unidade de execução elementar O mecanismo de comunicação utilizado A coordenação da execução para controle do acesso aos dados 44

45 Programação concorrente Programação concorrente Extensão ao paradigma Imperativo Execução segundo a arquitetura de von Neumann Ferramentas de programação multithread oferecem recurso para: Definir unidades de execução em termos de conjuntos de instruções ou procedimentos Identificar regiões de memória (dados) compartilhados entre as unidades de execução Controlar acesso aos dados compartilhados 45

46 Programação concorrente Modelos de Decomposição Paralela Paralelismo de tarefas O paralelismo é definido em termos de atividades independentes, processando sobre conjunto de dados distintos. Sincronização no início e no fim da execução concorrente e, eventualmente, durante a execução. Paralelismo de dados O paralelismo é definido em termos de dados que podem sofrer a execução da mesma operação de forma independente. Sincronização no início e no final da execução concorrente. 46

47 Programação concorrente Modelos de Decomposição Paralela Paralelismo de tarefas O paralelismo é definido em termos de atividades independentes, Utilização de mecanismos de processando sobre conjunto de dados distintos. barreiras Sincronização Paralelismo no início aninhado e no fim da execução concorrente e, eventualmente, Fortran durante paralelo a execução. OpenMP Paralelismo de dados O paralelismo Paralelismo é definido não em estruturado termos de dados que podem sofrer a execução da mesma operação de forma independente. POSIX Threads MPI Sincronização no início e no final da execução concorrente

48 Programação concorrente Modelos de programação Oferecem níveis de abstração dos recursos oferecidos pelas arquiteturas e pelas ferramentas Ferramentas oferecem recursos para programação de arquiteturas reais Modelo Ferramenta de programação Arquitetura É possível que uma ferramenta permita a exploração de mais de um tipo de paralelismo ou a utilização de diferentes modelos de concorrência. No entanto, cada ferramenta é mais conveniente para um determinado esquema 48

49 Thread Processo leve Noção de processo Um programa define uma seqüência de instruções e um conjunto de dados Um processo representa uma instância de um programa em execução. A seqüência de instruções do programa define um fluxo de execução a ser seguido e o espaço de endereçamento utilizado. O processo também possui associado o registro de recursos que utiliza e é manipulado pelo sistema operacional. 49

50 Thread Processo leve Noção de processo Memória programa.exe $> programa.exe Pilha Reg PCB 50

51 Thread Processo leve Noção de processo Informações no PCB (Process Control Block) Process ID User and User Grup ID Diretório de trabalho Descritor de arquivos Manipuladores de sinais Bibliotecas de compartilhadas Ferramentas de comunicação (pipes, semáforos etc) 51

52 Thread Processo leve Noção de processo Processo multithread Um programa define várias seqüência de instruções e um conjunto de dados Uma thread representa uma instância de uma seqüência de instruções em execução. Cada seqüência de instruções do programa define um fluxo de execução a ser seguido e os dados o espaço de endereçamento utilizado. As threads compartilham o registro de recursos que utilizados pelo processo. 52

53 Thread Processo leve Noção de processo Processo multithread A() D() Memória A() A() E() B() E() C() F() Programa fonte Processo com múltiplas threads 53

54 Thread Processo leve Noção de processo Processo multithread Os fluxos são independentes Competição pelos recursos da arquitetura Trocas de dados através de leituras e escritas em memória Competição pelos aos dados na memória compartilhada 54

55 Thread Processo leve Noção de processo Processo multithread Memória Pilha Reg Pilha Reg Pilha Reg PCB 55

56 Thread Processo leve Noção de processo Processo multithread Acesso ao dado compartilhado através de operações de leitura e escrita convencionais Escrita: Dado = valor Leitura: variável = Dado Memória 56

57 Thread Processo leve Noção de processo Processo multithread Acesso ao dado compartilhado através de operações de leitura e escrita convencionais O programador é responsável por introduzir instruções para sincronização entre fluxos Memória 57

58 Thread Processo leve Noção de processo Processo multithread Acesso a dado Instruções de sincronização Seção crítica: trecho de código com instruções que manipulam dado compartilhado entre fluxos de execução distintos Memória 58

59 Thread Processo leve Thread: custo de manipulação reduzido em relação ao processo Chaveamento de contexto em tempo menor Comunicação entre threads via memória compartilhada Criação/Destruição de threads mais eficiente que de processos Informações de cada thread Pilha Registradores Propriedades de escalonamento (prioridade, política) Sinais pendentes ou bloqueados Dados específicos do thread (errno) 59

60 Thread Ciclo de vida Criar lista de espera Pronto OK Bloq escalonamento time-out Exec sincronização return Fim termina Zumbi sincroniza 60

61 Thread Implementações 1 : 1 N : 1 M : N Thread sistema Thread usuário Misto SMP Mais leves Compromisso 61

62 Thread Modelos de Threads - 1 : 1 CriaThread(foo); Memória CriaThread(foo); 62

63 Thread Modelos de Threads - 1 : 1 Mecanismo de escalonamento garantido pelo sistema. Memória Escalonamento 63

64 Thread Modelos de Threads - 1 : 1 Estados das threads: pronto bloqueado executando MutexUnlock( &m ); Memória Escalonamento 64

65 Thread Modelos de Threads - 1 : 1 Memória MutexLock( &m ); Escalonamento 65

66 Thread Modelos de Threads - 1 : 1 Perda de processador: Situação 1: - decisão do escalonador (término do quantum) A thread é interrompida Memória Escalonamento 66

67 Thread Modelos de Threads - 1 : 1 Perda de processador: Memória Situação 2: - sincronização da thread MutexLock( &m ); Escalonamento 67

68 Thread Modelos de Threads - 1 : 1 Perda de processador: Memória Situação 2: - sincronização do thread O thread é retirada do do processador Escalonamento 68

69 Thread Modelos de Threads - 1 : 1 Vantagens Aumento do nível de paralelismo real na execução da aplicação Exploração das arquiteturas SMP Memória Escalonamento 69

70 Thread Modelos de Threads - 1 : 1 Porém... Memória Os threads não são muito leves Número limitado de atividades concorrentes Escalonamento 70

71 Thread Modelos de Threads - N : 1 Threads gerenciados em nível aplicativo espaço usuário O processo fornece um único suporte à execução Memória Escalonamento Escalonamento 71

72 Thread Modelos de Threads - N : 1 Threads gerenciadas a nível aplicativo espaço usuário O processo é que sofre o escalonamento do sistema operacional Memória Escalonamento Escalonamento 72

73 Thread Modelos de Threads - N : 1 Vantagens Aumento do nível de concorrência que pode ser expresso para a aplicação Os threads são bastante leves Memória Escalonamento Escalonamento 73

74 Thread Modelos de Threads - N : 1 Porém... Não explora o paralelismo natural de uma arquitetura SMP Um thread pode bloquear todo processo ao realizar uma chamada bloqueante (p.ex. recv, scanf) ao sistema Memória Escalonamento Escalonamento 74

75 Thread Modelos de Threads - N : M Modelo misto gerenciamento tanto no espaço usuário quanto pelo sistema operacional Memória Escalonamento Escalonamento 75

76 Thread Modelos de Threads - N : M Vantagens Separação entre a descrição da concorrência existente na aplicação do paralelismo real existente na arquitetura Memória Escalonamento Escalonamento 76

77 Thread Modelos de Threads - N : M Porém... Memória Escalonamento Custo de implementação?... Escalonamento 77

78 Thread 1:1 N:1 Modelos de Threads Exemplos NPTL (Native POSIX Thread Library) Minix HP-UX SunOS 4.x N:M Solaris (LWPs LightWeight Processes) Cilk (projeto de pesquisa) Anahy (projeto de pesquisa) 78

79 Thread Erros comuns na programação Considerar uma ordem de execução dos threads Erro: Introduzir no algoritmo uma premissa que considere a ordem de execução dos threads Conseqüência: Aordem de execução é dada pela heurística de escalonamento, sendo estabelecida em tempo de execução. Normalmente esta heurística também considera fatores que são externos ao programa. Qualquer premissa no algoritmo que considere a ordem de execução fatalmente irá produzir um programa incorreto Solução: Caso seja necessário definir uma ordem de execução para os threads devem ser utilizadas as primitivas específicas de sincronização disponibilizadas pela ferramenta utilizada 79

80 Thread Erros comuns na programação Considerar uma ordem de execução dos threads Acesso simultâneo a um dado por dois (ou mais) threads Data-race Erro: Não controlar o acesso ao espaço de endereçamento compartilhado pelos threads Conseqüência: Incoerência do estado da execução pela manipulação simultânea e não controlada dos dados Solução: Identificar os dados passíveis de acesso simultâneo por dois (ou mais) threads e proteger sua manipulação pelo uso de mecanismos de sincronização 80

81 Thread Erros comuns na programação Considerar uma ordem de execução dos threads Acesso simultâneo a um dado por dois (ou mais) threads Postergação indefinida Deadlock Erro: Não sinalizar uma condição de saída de uma sincronização Conseqüência: Um (ou mais) thread(s) permanecem bloqueados aguardando uma sincronização Solução: Garantir que todos as condições de saída de sincronizações sejam efetuadas 81

82 Casos de estudo Paralelismo explícito O programador deve introduzir diretivas para gerar e controlar a execução paralela do programa Diferentes níveis de abstração Paralelismo de dados Paralelismo de tarefa 82

83 Casos de estudo Paralelismo de dados OpenMP Diretivas de compilação / Biblioteca de serviços Paralelismo aninhado Paralelismo de tarefa POSIX threads Biblioteca de funções Paralelismo não estruturado 83

84 Sumário Introdução Arquiteturas multi-core Programação multithread Ferramentas de programação POSIX Threads pthreads OpenMP Prática de programação Considerações finais 84

85 Pthreads Padrão IEEE POSIX c 1995 Definido para permitir compatibilidade de programas multithread entre diferentes plataformas Define a interface de serviço (API) É de uso geral Linux LinuxThreads NPTL Native POSIX Threads Library Windows pthreads_win32 85

86 Pthread Corpo de um thread Função C/C++ convencional Recebe e retorna endereços de memória Variáveis locais visíveis apenas no escopo da função void *foo(void *args) {... // Código C/C++... } Dois threads podem ser criados a partir da mesma função, no entanto, são instâncias diferentes!!! 86

87 Pthreads Interface básica Serviços pthread_xxxx Tipos de dados pthread_t_xxxx Macros PTHREAD_XXXXX Retorno dos serviços Código de erro. Execução sem erro retorna 0 (zero). Manipula a variável errno Conceito Estrutura de dados opaca 87

88 Pthreads Manipulação de Threads Criação: int pthread_create(..., void *(*foo)(void *), void *arg ); Término: void pthread_exit(void *retval ); return (void *)retval; Sincronização: int pthread_join(pthread_t tid, void **ret); Identificação: pthread_t* pthread_self(void); 88

89 Pthreads Manipulação de Threads Criação: int pthread_create( pthread_t *tid, pthread_attr_t *atrib, void *(*func)(void *), void *args ); Cria um novo fluxo de execução (um novo thread). O novo fluxo executa de forma concorrente com o thread original 89

90 Pthreads Manipulação de Threads Criação: int pthread_create( pthread_t *tid, pthread_attr_t *atrib, void *(*func)(void *), void *args ); func: nome da função que contém o código a ser executado pelo thread 90

91 Pthreads Manipulação de Threads Criação: int pthread_create( pthread_t *tid, pthread_attr_t *atrib, void *(*func)(void *), void *args ); args: ponteiro para uma região de memória com dados de entrada para a função 91

92 Pthreads Manipulação de Threads Criação: int pthread_create( pthread_t *tid, pthread_attr_t *atrib, void *(*func)(void *), void *args ); tid: identificador (único) do novo thread 92

93 Pthreads Manipulação de Threads Criação: int pthread_create( pthread_t *tid, pthread_attr_t *atrib, void *(*func)(void *), void *args ); atrib: atributos de execução para o novo thread 93

94 Pthreads Manipulação de Threads Criação: pthread_create(&tid,... OiMundo,...); tid2 pthread_create(&tid2,... OiMundo,...); tid main tempo 94

95 Pthreads Manipulação de Threads Criação: int main() { pthread_t tid; char *str = strdup("oi mundo"); pthread_create( &tid, NULL, OiMundo, str );... } void *OiMundo(void *in){ char *str = (char *)in; printf("%s\n", str);... return (void*) NULL; } 95

96 Pthreads Manipulação de Threads Término: void pthread_exit(void *retval ); ou return (void *)retval; Termina a execução do thread que executou a chamada. Joinable ou Detached retval: endereço de uma posição de memória contendo o dado a ser retornado 96

97 Pthreads Manipulação de Threads Término: pthread_create(&tid,... OiMundo,...); return dta; tid2 tid pthread_create(&tid2,... OiMundo,...); main tempo 97

98 Pthreads Manipulação de Threads Término: pthread_exit A execução do thread é interrompida e o processo de computação abandonado No caso de utilização com programas C++, escopos de funções/métodos não são terminados e há risco de objetos não serem destruídos com invocação ao destrutor. return Abandona a execução do thread corrente fechando o contexto de memória utilizado. 98

99 Pthreads Manipulação de Threads Sincronização: int pthread_join( pthread_t tid, void **ret ); Aguarda o término de um thread (se ele ainda não terminou) e recupera o resultado produzido. 99

100 Pthreads Manipulação de Threads Sincronização: int pthread_join( pthread_t tid, void **ret ); tid: identificador do thread a ter seu término sincronizado ret: endereço de um ponteiro que será atualizado com a posição de memória que contém os dados retornados 100

101 Pthreads Manipulação de Threads Sincronização: int pthread_join( pthread_t tid, void **ret ); Cada thread suporta, no máximo, uma operação de join 101

102 Pthreads Manipulação de Threads Sincronização: int pthread_detach( pthread_t tid ); Operação inversa ao join: O thread tid não sofrerá nenhuma sincronização por join 102

103 Pthreads Manipulação de Threads Sincronização: tid2 tid main pthread_create(&tid,... OiMundo,...); pthread_create(&tid2,... OiMundo,...); return dta; Aguarda término tempo pthread_join(tid, &ret); pthread_join(tid2, &ret2); 103

104 Pthreads Ciclo de vida Criar lista de espera Pronto OK Bloq escalonamento time-out Exec sincronização return Fim termina Zumbi Joinable sincroniza 104

105 Pthreads Exemplo: produtor/consumidor void *prod(void *args) { Buf *buf = malloc; void *cons(void *args) { Buf *buf; pthread_t p; produz item return buf; } p = (pthread_t)* args; pthread_join( p, &buf ); consome item main(){ pthread_t p[5], c[5]; for(i = 0 ; i < 5 ; i++ ) { return NULL; } pthread_create(&(p[i]), NULL, prod, NULL ); pthread_create(&(c[i]), NULL, cons, &(p[i])); } } for(i = 0 ; i < 5 ; i++ ) pthread_join(c[i], NULL); 105

106 Pthreads Exemplo: produtor/consumidor void *prod(void *args) { Buf *buf = malloc; produz item return buf; } A sincronização por join garante a void *cons(void *args) { Buf *buf; pthread_t p; p = (pthread_t)* args; pthread_join( p, &buf ); consome item return NULL; main(){ correta pthread_t comunicação p[5], c[5]; entre as tarefas} executadas for(i = 0 ; (controle i < 5 ; i++ da ) comunicação). { pthread_create(&(p[i]), NULL, prod, NULL ); pthread_create(&(c[i]), NULL, cons, &(p[i])); } P 0 P 1 P 2 P 3 P 4 C 0 C 1 C 2 C 3 C 4 } for(i = 0 ; i < 5 ; i++ ) pthread_join(c[i], NULL); 106

107 Pthreads Descritor de threads Identificador do thread (Thread ID) Registradores Contador de Programa (PC) Ponteiro de Pilha (SP) Registradores Gerais Pilha de execução local Dados locais aos escopos Endereços de retorno para chamadas de subrotinas Endereço de retorno após completar a chamada Endereço dos outros threads Ponteiro do PCB do processo Informações de escalonamento Prioridade Estado Tipo de escalonamento

108 Pthreads Atributos de threads Alguns atributos podem ser definidos para execução Tamanho da pilha Política de escalonamento Prioridade Escopo de execução } Pode não ser garantido Depende da implementação pthread_attr_t int pthread_attr_init( pthread_attr_t* atrib ); int pthread_attr_setxxxx( pthread_attr_t* atrib, int valor ); 108

109 Pthreads Atributos de threads Alguns atributos podem ser definidos para execução Escopo de execução Local ao processo: PTHREAD_SCOPE_PROCESS O thread deverá ser escalonado no escopo do processo Sistema: PTHREAD_SCOPE_SYSTEM É definida uma unidade de escalonamento próprio ao thread int pthread_attr_setscope( &atrib, XXXX ); 109

110 Pthreads Atributos de threads Alguns atributos podem ser definidos para execução Estratégia de escalonamento SCHED_FF SCHED_RR SCHED_OTHER (default) No GNU-Linux: SCHED_FF e SCHED_FF apenas como super-usuário. int pthread_attr_setschedpolicy( &atrib, XXXX ); 110

111 Pthreads Atributos de threads Alguns atributos podem ser definidos para execução Modo de execução Autônoma: PTHREAD_CREATE_DETACHED O thread não sofrerá operação de sincronização por join Sincronizável: PTHREAD_CREATE_JOINABLE (default) Algum thread deverá efetuar join sobre o thread int pthread_attr_setdetachstate( &atrib, XXXX ); 111

112 Pthreads Atributos de threads Manipulação da pilha do thread Identificação de um tamanho alternativo para a pilha int pthread_attr_setstacksize( pthread_attr_t* atrib, size_t tam ); Identificação de uma área de memória alternativa (com tamanho mínimo de PTHREAD_STACK_MIN) int pthread_attr_setstackaddr( pthread_attr_t* atrib, void* end ); Atenção: o padrão não define se end corresponde ao endereço baixo ou alto do memória 112

Capítulo 8 Arquitetura de Computadores Paralelos

Capítulo 8 Arquitetura de Computadores Paralelos Capítulo 8 Arquitetura de Computadores Paralelos Necessidade de máquinas com alta capacidade de computação Aumento do clock => alta dissipação de calor Velocidade limitada dos circuitos => velocidade da

Leia mais

Programação Concorrente Processos e Threads

Programação Concorrente Processos e Threads Programação Concorrente Processos e Threads Prof. Eduardo Alchieri Processos O conceito mais central em qualquer sistema operacional é o processo Uma abstração de um programa em execução Um programa por

Leia mais

S.O.: Conceitos Básicos

S.O.: Conceitos Básicos S.O.: Conceitos Básicos Camada de software localizada entre o hardware e os programas que executam tarefas para o usuário; Acessa os periféricos Entrada e Saída Esconde os detalhes do hardware para o programador

Leia mais

Programação em Memória Compartilhada com OpenMP

Programação em Memória Compartilhada com OpenMP Programação em Memória Compartilhada com OpenMP Esbel Tomás Valero Orellana Bacharelado em Ciência da Computação Departamento de Ciências Exatas e Tecnológicas Universidade Estadual de Santa Cruz evalero@uesc.br

Leia mais

Sistemas Operacionais I

Sistemas Operacionais I UFRJ IM - DCC Sistemas Operacionais I Unidade II - Threads 24/04/2014 Prof. Valeria M. Bastos 1 ORGANIZAÇÃO DA UNIDADE Threads Processos Threads Conceituação Descrição e Imagem de uma Thread Tipos de thread

Leia mais

Notas da Aula 4 - Fundamentos de Sistemas Operacionais

Notas da Aula 4 - Fundamentos de Sistemas Operacionais Notas da Aula 4 - Fundamentos de Sistemas Operacionais 1. Threads Threads são linhas de execução dentro de um processo. Quando um processo é criado, ele tem uma única linha de execução, ou thread. Esta

Leia mais

Programação Paralela e Distribuída (DCC/UFRJ)

Programação Paralela e Distribuída (DCC/UFRJ) Programação Paralela e Distribuída (DCC/UFRJ) Aula 7: Programação com memória compartilhada usando OpenMP 1, 8, 10 e 15 de abril de 2015 OpenMP (Open MultiProcessing) Projetado para sistemas de memória

Leia mais

OO Engenharia Eletrônica

OO Engenharia Eletrônica OO Engenharia Eletrônica - Programação em C/C++ Slides 18: Introdução à Multithreading. Introdução à Multithreading: execução concorrente de tarefas. Exemplos usando a biblioteca pthread que é de acordo

Leia mais

PROCESSOS. Prof. Maicon A. Sartin mapsartin@gmail.com

PROCESSOS. Prof. Maicon A. Sartin mapsartin@gmail.com PROCESSOS Prof. Maicon A. Sartin mapsartin@gmail.com Cenários em Sistemas Multitarefas Um usuário pode executar diversas atividades simultâneas Música Editoração de texto Navegar na Internet Servidor pode

Leia mais

Arquiteturas de Computadores Paralelos

Arquiteturas de Computadores Paralelos Universidade Tuiuti do Paraná UTP Faculdade de Ciências Exatas - FACET Tecnologia de Análise e Desenvolvimento de Sistemas Organização de Computadores Prof. André Luiz 1 Paralelismo O estudo de paralelismo

Leia mais

Capítulo 2 Processos e Threads Prof. Fernando Freitas

Capítulo 2 Processos e Threads Prof. Fernando Freitas slide 1 Capítulo 2 Processos e Threads Prof. Fernando Freitas Material adaptado de: TANENBAUM, Andrew S. Sistemas Operacionais Modernos. 3ª edição. Disponível em: http://www.prenhall.com/tanenbaum_br slide

Leia mais

É a associação de mais de um fluxo de execução em um único processo.

É a associação de mais de um fluxo de execução em um único processo. Profa. Rita Rodorigo Threads Um processo é uma abstração que reúne uma série de atributos como espaço de endereçamento descritores de arquivos abertos, quotas, etc. Um processo possui ainda uma área de

Leia mais

Introdução a Threads Java

Introdução a Threads Java Introdução a Threads Java Prof. Gerson Geraldo Homrich Cavalheiro Universidade Federal de Pelotas Departamento de Informática Instituto de Física e Matemática Pelotas RS Brasil http://gersonc.anahy.org

Leia mais

Controle de granularidade de tarefas em OpenMP

Controle de granularidade de tarefas em OpenMP UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL INSTITUTO DE INFORMÁTICA CURSO DE BACHARELADO EM CIÊNCIA DA COMPUTAÇÃO MÁRCIO DE OLIVEIRA DA SILVA Controle de granularidade de tarefas em OpenMP Trabalho de Conclusão

Leia mais

Capítulo 2 Processos e Threads. 2.1 Processos 2.2 Threads 2.3 Comunicação interprocesso 2.4 Problemas clássicos de IPC 2.

Capítulo 2 Processos e Threads. 2.1 Processos 2.2 Threads 2.3 Comunicação interprocesso 2.4 Problemas clássicos de IPC 2. Capítulo 2 Processos e Threads 2.1 Processos 2.2 Threads 2.3 Comunicação interprocesso 2.4 Problemas clássicos de IPC 2.5 Escalonamento 1 Processos O Modelo de Processo Multiprogramação de quatro programas

Leia mais

Um sistema é constituído de um conjunto de processos que executam seus respectivos códigos do sistema operacional e processos e códigos de usuários.

Um sistema é constituído de um conjunto de processos que executam seus respectivos códigos do sistema operacional e processos e códigos de usuários. Os sistemas computacionais atuais permitem que diversos programas sejam carregados na memória e executados simultaneamente. Essa evolução tornou necessário um controle maior na divisão de tarefas entre

Leia mais

Programação Sistemas

Programação Sistemas Programação Sistemas Fios de Execução Programação de Sistemas Threads : 1/28 Porquê o paralelismo? (1) 1. Crescentes necessidades de computação têm sido satisfeitas com aumento do número de transístores

Leia mais

Sistemas Operacionais: Threads

Sistemas Operacionais: Threads Sistemas Operacionais: Threads Threads Única linha de execução x múltiplas linhas de execução Benefícios Tempo de resposta Compartilhamento de recursos Economia de recursos Desempenho em arquiteturas multiprocessadas

Leia mais

7 Processamento Paralelo

7 Processamento Paralelo 7 Processamento Paralelo Yes, of course, who has time? Who has time? But then if we do not ever take time, how can we ever have time? (The Matrix) 7.1 Introdução Classificação de Sistemas Paralelos Diversas

Leia mais

Professores: Aula 10. Lúcia M. A. Drummond Simone de Lima Martins. Conteúdo: Arquiteturas Avançadas. - Arquiteturas RISC - Processamento Paralelo

Professores: Aula 10. Lúcia M. A. Drummond Simone de Lima Martins. Conteúdo: Arquiteturas Avançadas. - Arquiteturas RISC - Processamento Paralelo 1 Professores: Aula 10 Lúcia M. A. Drummond Simone de Lima Martins Conteúdo: Arquiteturas Avançadas - Arquiteturas RISC - Processamento Paralelo 2 Arquiteturas RISC Reduced Instruction Set Computer se

Leia mais

Sistemas Operacionais Aula 06: Threads. Ezequiel R. Zorzal ezorzal@unifesp.br www.ezequielzorzal.com

Sistemas Operacionais Aula 06: Threads. Ezequiel R. Zorzal ezorzal@unifesp.br www.ezequielzorzal.com Sistemas Operacionais Aula 06: Threads Ezequiel R. Zorzal ezorzal@unifesp.br www.ezequielzorzal.com Objetivos Introduzir o conceito de thread Discutir as APIs das bibliotecas de threads Pthreads, Win32

Leia mais

OpenMP. Mestrado em Ciência da Computação Introdução ao Processamento Paralelo e Distribuído Prof. Dr. Adenauer Corrêa Yamin Mestranda: Nelsi Warken

OpenMP. Mestrado em Ciência da Computação Introdução ao Processamento Paralelo e Distribuído Prof. Dr. Adenauer Corrêa Yamin Mestranda: Nelsi Warken OpenMP Mestrado em Ciência da Computação Introdução ao Processamento Paralelo e Distribuído Prof. Dr. Adenauer Corrêa Yamin Mestranda: Nelsi Warken Sumário 1. Introdução 2. História 3. Motivação 4. Objetivos

Leia mais

Threads Aula 04 2 Quadrimestre

Threads Aula 04 2 Quadrimestre BC1518 - Sistemas Operacionais Threads Aula 04 2 Quadrimestre de 2010 Prof. Marcelo Z. do Nascimento Email: marcelo.nascimento@ufabc.edu.br Roteiro Threads: Visão Geral Benefícios Tipos Modelos de multithread

Leia mais

Aspectos de Programação Paralela em Máquinas NUMA

Aspectos de Programação Paralela em Máquinas NUMA Aspectos de Programação Paralela em Máquinas NUMA Alexandre Carissimi 1 Fabrice Dupros 2 Jean-François Méhaut 3 Rafael Vanoni Polanczyk 1 1 Instituto de Informática UFRGS Caixa Postal 15.064 Porto Alegre

Leia mais

Sistemas MIMD. CES-25 Arquiteturas para Alto Desmpenho. Paulo André Castro

Sistemas MIMD. CES-25 Arquiteturas para Alto Desmpenho. Paulo André Castro Sistemas MIMD Arquiteturas para Alto Desmpenho Prof. pauloac@ita.br Sala 110 Prédio da Computação www.comp.ita.br/~pauloac Arquiteturas Paralelas (SISD) Single Instruction Stream, Single Data Stream: Monoprocessador

Leia mais

Módulo 4: Processos. Conceito de Processo. Escalonamento de processos Operações sobre processos Processos cooperantes Comunicação entre processos

Módulo 4: Processos. Conceito de Processo. Escalonamento de processos Operações sobre processos Processos cooperantes Comunicação entre processos Módulo 4: Processos Conceito de Processo Escalonamento de processos Operações sobre processos Processos cooperantes Comunicação entre processos 4.1 Conceito de Processo Um Sistema Operacional executa uma

Leia mais

Arquitetura NUMA 1. Daniel de Angelis Cordeiro. INRIA MOAIS project Laboratoire d Informatique de Grenoble Université de Grenoble, França

Arquitetura NUMA 1. Daniel de Angelis Cordeiro. INRIA MOAIS project Laboratoire d Informatique de Grenoble Université de Grenoble, França Arquitetura NUMA 1 Daniel de Angelis Cordeiro INRIA MOAIS project Laboratoire d Informatique de Grenoble Université de Grenoble, França 6 de Outubro de 2010 1 Baseado em slides feitos por Christiane Pousa

Leia mais

P5 P3. interrupçãocorrespondente. Sistemas Operacionais 2008/1 Profa. Patricia D. CostaLPRM/DI/UFES 3 Sistemas Operacionais 2008/1

P5 P3. interrupçãocorrespondente. Sistemas Operacionais 2008/1 Profa. Patricia D. CostaLPRM/DI/UFES 3 Sistemas Operacionais 2008/1 Conceitos Processos Básicos (Aula 4) Profa. É Provoca Constitui Mecanismo Patricia informa evento controle, a multiprogramação. Ex: rotina um a base de Interrupção de um (1) sistema de D. CostaLPRM/DI/UFES

Leia mais

Desenvolvimento de Programas Paralelos para Máquinas NUMA: Conceitos e Ferramentas

Desenvolvimento de Programas Paralelos para Máquinas NUMA: Conceitos e Ferramentas 1 Pontifícia Universidade Católica do Rio Grande do Sul Faculdade de Informática Programa de Pós-Graduação em Ciência da Computação Desenvolvimento de Programas Paralelos para Máquinas NUMA: Conceitos

Leia mais

Máquinas Multiníveis

Máquinas Multiníveis Infra-Estrutura de Hardware Máquinas Multiníveis Prof. Edilberto Silva www.edilms.eti.br edilms@yahoo.com Sumário Conceitos básicos Classificação de arquiteturas Tendências da tecnologia Família Pentium

Leia mais

Módulo 4: Processos. Conceito de Processo. Diagrama de Estados de Processos. Estados de Processo

Módulo 4: Processos. Conceito de Processo. Diagrama de Estados de Processos. Estados de Processo Módulo 4: Processos Conceito de Processo Conceito de Processo Escalonamento de Processos Operações com Processos Processos Cooperativos Comunicação entre Processos Um sistema operacional executa uma variedade

Leia mais

Conceitos de Linguagens de Programação

Conceitos de Linguagens de Programação Conceitos de Linguagens de Programação Aula 07 Nomes, Vinculações, Escopos e Tipos de Dados Edirlei Soares de Lima Introdução Linguagens de programação imperativas são abstrações

Leia mais

Sistemas Operacionais 2014 Introdução. Alexandre Augusto Giron alexandre.a.giron@gmail.com

Sistemas Operacionais 2014 Introdução. Alexandre Augusto Giron alexandre.a.giron@gmail.com Sistemas Operacionais 2014 Introdução Alexandre Augusto Giron alexandre.a.giron@gmail.com Roteiro Sistemas Operacionais Histórico Estrutura de SO Principais Funções do SO Interrupções Chamadas de Sistema

Leia mais

Sistemas Operacionais

Sistemas Operacionais Sistemas Operacionais Sistemas de Entrada/Saída Princípios de Hardware Sistema de Entrada/Saída Visão Geral Princípios de Hardware Dispositivos de E/S Estrutura Típica do Barramento de um PC Interrupções

Leia mais

PROJETO LÓGICO DE COMPUTADORES Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com.br

PROJETO LÓGICO DE COMPUTADORES Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com.br - Aula 6 - ARQUITETURAS AVANÇADAS DE COMPUTADORES 1. INTRODUÇÃO As arquiteturas dos processadores têm evoluído ao longo dos anos, e junto com ela o conceito de arquitetura avançada tem se modificado. Nos

Leia mais

Sistemas Operacionais. Alexandre Meslin meslin@inf.puc-rio.br

Sistemas Operacionais. Alexandre Meslin meslin@inf.puc-rio.br Sistemas Operacionais Alexandre Meslin meslin@inf.puc-rio.br Ementa Apresentação do curso Cap1 - Visão Geral Cap2 - Conceitos de Hardware e Software Cap3 - Concorrência Cap4 - Estrutura do Sistema Operacional

Leia mais

EXEMPLO: Processo para atualização da hora Processo para monitoramento da necessidade de proteção de tela. Figura 4-1 - Exemplo

EXEMPLO: Processo para atualização da hora Processo para monitoramento da necessidade de proteção de tela. Figura 4-1 - Exemplo 4 PROCESSOS Os primeiros sistemas operacionais permitiam que apenas um processo fosse executado por vez. Dessa maneira, este processo tinha todo o sistema computacional a sua disposição. Os atuais sistemas

Leia mais

Visão Geral de Sistemas Operacionais

Visão Geral de Sistemas Operacionais Visão Geral de Sistemas Operacionais Sumário Um sistema operacional é um intermediário entre usuários e o hardware do computador. Desta forma, o usuário pode executar programas de forma conveniente e eficiente.

Leia mais

CAPÍTULO 2 ORGANIZAÇÃO DE COMPUTADORES

CAPÍTULO 2 ORGANIZAÇÃO DE COMPUTADORES CAPÍTULO 2 ORGANIZAÇÃO DE COMPUTADORES 2.1 Organização de um Computador Típico : Armazena dados e programas. Processador (CPU - Central Processing Unit): Executa programas armazenados na memória, interpretando

Leia mais

COMPUTAÇÃO PARALELA. uma visão geral. Guilherme Galante. v.2.0

COMPUTAÇÃO PARALELA. uma visão geral. Guilherme Galante. v.2.0 COMPUTAÇÃO PARALELA uma visão geral Guilherme Galante v.2.0 Guilherme Galante Bacharel em Informática Unioeste (2003) Mestre em Ciência da Computação UFRGS (2006) Professor Assistente do curso de Informática/Ciência

Leia mais

Introdução às arquiteturas paralelas e taxonomia de Flynn

Introdução às arquiteturas paralelas e taxonomia de Flynn Introdução às arquiteturas paralelas e taxonomia de Flynn OBJETIVO: definir computação paralela; o modelo de computação paralela desempenhada por computadores paralelos; e exemplos de uso da arquitetura

Leia mais

Sistemas Operacionais

Sistemas Operacionais Sistemas Operacionais SISTEMAS COM MÚLTIPLOS PROCESSADORES LIVRO TEXTO: CAPÍTULO 13, PÁGINA 243 Prof. Pedro Luís Antonelli Anhanguera Educacional INTRODUÇÃO Arquiteturas que possuem duas ou mais CPUs interligadas

Leia mais

Sistemas Operacionais

Sistemas Operacionais Sistemas Operacionais Gerência de processos Controle e descrição de processos Edson Moreno edson.moreno@pucrs.br http://www.inf.pucrs.br/~emoreno Sumário Representação e controle de processos pelo SO Estrutura

Leia mais

Processos e Threads (partes I e II)

Processos e Threads (partes I e II) Processos e Threads (partes I e II) 1) O que é um processo? É qualquer aplicação executada no processador. Exe: Bloco de notas, ler um dado de um disco, mostrar um texto na tela. Um processo é um programa

Leia mais

Organização de Computadores 2005/2006 Processamento Paralelo

Organização de Computadores 2005/2006 Processamento Paralelo Organização de Computadores 2005/2006 Processamento Paralelo Paulo Ferreira paf a dei.isep.ipp.pt Maio de 2006 Introdução 2 Porquê?...........................................................................................

Leia mais

SISTEMAS OPERACIONAIS

SISTEMAS OPERACIONAIS SISTEMAS OPERACIONAIS Processos e Threads Andreza Leite andreza.leite@univasf.edu.br Plano de Aula 2 Gerenciamento de Processos Threads Aplicações com múltiplas Threads Concorrência e Compartilhamento

Leia mais

FACULDADE PITÁGORAS PRONATEC

FACULDADE PITÁGORAS PRONATEC FACULDADE PITÁGORAS PRONATEC DISCIPLINA: ARQUITETURA DE COMPUTADORES Prof. Ms. Carlos José Giudice dos Santos carlos@oficinadapesquisa.com.br www.oficinadapesquisa.com.br Objetivos Ao final desta apostila,

Leia mais

Arquitetura e Organização de Computadores

Arquitetura e Organização de Computadores Arquitetura e Organização de Computadores Fernando Fonseca Ramos Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros 1 Índice 1- Introdução 3- Memórias 4- Dispositivos

Leia mais

Sistema Operacional. Processo e Threads. Prof. Dr. Márcio Andrey Teixeira Sistemas Operacionais

Sistema Operacional. Processo e Threads. Prof. Dr. Márcio Andrey Teixeira Sistemas Operacionais Sistema Operacional Processo e Threads Introdução a Processos Todos os computadores modernos são capazes de fazer várias coisas ao mesmo tempo. Enquanto executa um programa do usuário, um computador pode

Leia mais

Arquiteturas RISC. (Reduced Instructions Set Computers)

Arquiteturas RISC. (Reduced Instructions Set Computers) Arquiteturas RISC (Reduced Instructions Set Computers) 1 INOVAÇÕES DESDE O SURGIMENTO DO COMPU- TADOR DE PROGRAMA ARMAZENADO (1950)! O conceito de família: desacoplamento da arquitetura de uma máquina

Leia mais

Computação Heterogênea Programação paralela, clusters e GPUs

Computação Heterogênea Programação paralela, clusters e GPUs Computação Heterogênea Programação paralela, clusters e GPUs Profa. Dra. Denise Stringhini (ICT- Unifesp) Primeiro Encontro do Khronos Chapters Brasil Belo Horizonte, 20/09/2013 Conteúdo Computação heterogênea:

Leia mais

SISTEMAS DISTRIBUÍDOS Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com.br

SISTEMAS DISTRIBUÍDOS Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com.br - Aula 5 PROCESSOS 1. INTRODUÇÃO Em sistemas distribuídos é importante examinar os diferentes tipos de processos e como eles desempenham seu papel. O conceito de um processo é originário do campo de sistemas

Leia mais

3/9/2010. Ligação da UCP com o barramento do. sistema. As funções básicas dos registradores nos permitem classificá-los em duas categorias:

3/9/2010. Ligação da UCP com o barramento do. sistema. As funções básicas dos registradores nos permitem classificá-los em duas categorias: Arquitetura de Computadores Estrutura e Funcionamento da CPU Prof. Marcos Quinet Universidade Federal Fluminense P.U.R.O. Revisão dos conceitos básicos O processador é o componente vital do sistema de

Leia mais

Sistemas Distribuídos: Conceitos e Projeto Threads e Migração de Processos

Sistemas Distribuídos: Conceitos e Projeto Threads e Migração de Processos Sistemas Distribuídos: Conceitos e Projeto Threads e Migração de Processos Francisco José da Silva e Silva Laboratório de Sistemas Distribuídos (LSD) Departamento de Informática / UFMA http://www.lsd.deinf.ufma.br

Leia mais

Sistemas Operacionais

Sistemas Operacionais Sistemas Operacionais Prof. Jó Ueyama Apresentação baseada nos slides da Profa. Dra. Kalinka Castelo Branco, do Prof. Dr. Antônio Carlos Sementille, da Profa. Dra. Luciana A. F. Martimiano e nas transparências

Leia mais

Sistemas Distribuídos. Professora: Ana Paula Couto DCC 064

Sistemas Distribuídos. Professora: Ana Paula Couto DCC 064 Sistemas Distribuídos Professora: Ana Paula Couto DCC 064 Questões Em uma rede de sobreposição (overlay), mensagens são roteadas de acordo com a topologia da sobreposição. Qual uma importante desvantagem

Leia mais

Processos. Threads POSIX. A noção de thread. O processo é. Nas aulas anteriores. Plano da aula. A imagem do processo.

Processos. Threads POSIX. A noção de thread. O processo é. Nas aulas anteriores. Plano da aula. A imagem do processo. Nas aulas anteriores Threads POSIX Marcelo Johann Processos INF01142 - Sistemas Operacionais I N - Marcelo Johann - 2010/2 Aula 07 : Slide 2 Plano da aula Introdução: do processo às threads Duas categorias

Leia mais

APLICAÇÕES EM SISTEMAS DISTRIBUÍDOS Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com

APLICAÇÕES EM SISTEMAS DISTRIBUÍDOS Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com - Aula 6 - ALGORÍTIMOS PARALELOS MPI - Parallel Virtual Machine e PVM - Parallel Virtual Machine 1. INTRODUÇÃO Inicialmente é necessário conceber alguns conceitos para entendimento dos algoritmos paralelos:

Leia mais

Sistemas Paralelos e Distribuídos. Prof. Jorge Dantas de Melo Depto. Eng. Comp. e Automação CT - UFRN

Sistemas Paralelos e Distribuídos. Prof. Jorge Dantas de Melo Depto. Eng. Comp. e Automação CT - UFRN Sistemas Paralelos e Distribuídos Prof. Jorge Dantas de Melo Depto. Eng. Comp. e Automação CT - UFRN Conceitos preliminares Paralelismo refere-se a ocorrência simultânea de eventos em um computador Processamento

Leia mais

ALGORÍTMOS PARALELOS (Aula 2) LCAD. Neyval C. Reis Jr. OUTUBRO/2004. Laboratório de Computação de Alto Desempenho DI/UFES

ALGORÍTMOS PARALELOS (Aula 2) LCAD. Neyval C. Reis Jr. OUTUBRO/2004. Laboratório de Computação de Alto Desempenho DI/UFES ALGORÍTMOS PARALELOS (Aula 2) Neyval C. Reis Jr. OUTUBRO/2004 LCAD Laboratório de Computação de Alto Desempenho DI/UFES Programa do Curso LCAD 1. Introdução 2. Arquitetura de Computadores 3. Arquiteturas

Leia mais

SIS17 - Arquitetura de Computadores

SIS17 - Arquitetura de Computadores SIS17 - Arquitetura de Computadores Organização Básica B de Computadores (Parte I) Organização Básica B de Computadores Composição básica b de um Computador eletrônico digital Processador Memória Memória

Leia mais

Arquitetura de Computadores. Introdução aos Sistemas Operacionais

Arquitetura de Computadores. Introdução aos Sistemas Operacionais Arquitetura de Computadores Introdução aos Sistemas Operacionais O que é um Sistema Operacional? Programa que atua como um intermediário entre um usuário do computador ou um programa e o hardware. Os 4

Leia mais

1. Discute as vantagens e desvantagens dum sistema de memória paginada, indicando também a importância do sistema dispôr duma memória cache.

1. Discute as vantagens e desvantagens dum sistema de memória paginada, indicando também a importância do sistema dispôr duma memória cache. Frequência II, 3 de Junho de 2011 Grupo A: Gestão de Memória (7 Valores) 1. Discute as vantagens e desvantagens dum sistema de memória paginada, indicando também a importância do sistema dispôr duma memória

Leia mais

Sistemas Distribuídos Conceitos HW e SW. Edeyson Andrade Gomes www.edeyson.com.br

Sistemas Distribuídos Conceitos HW e SW. Edeyson Andrade Gomes www.edeyson.com.br Sistemas Distribuídos Conceitos HW e SW Edeyson Andrade Gomes www.edeyson.com.br Roteiro da Aula Roteiro da Aula Conceitos de Hardware Conceitos de Software Combinações de SW e HW 3 Sistemas Distribuídos

Leia mais

Sistemas Operacionais Carlos Eduardo Portela Serra de Castro

Sistemas Operacionais Carlos Eduardo Portela Serra de Castro Introdução Sistemas Operacionais 1 Sistema Operacional: Um conjunto de programas, executado pelo computador como os outros programas. Função: Controlar o funcionamento do computador, disponibilizando seus

Leia mais

SO: Gerenciamento de Processos

SO: Gerenciamento de Processos SO: Gerenciamento de Processos Adriano J. Holanda http://holanda.xyz 10/8/2015 O que é um processo Um processo é um programa (código objeto armazenado em alguma mídia) em. O que é um processo Um processo

Leia mais

Capítulo 1 Introdução

Capítulo 1 Introdução Capítulo 1 Introdução Programa: Seqüência de instruções descrevendo como executar uma determinada tarefa. Computador: Conjunto do hardware + Software Os circuitos eletrônicos de um determinado computador

Leia mais

Organização e Arquitetura de Computadores I. de Computadores

Organização e Arquitetura de Computadores I. de Computadores Universidade Federal de Campina Grande Departamento de Sistemas e Computação Curso de Bacharelado em Ciência da Computação Organização e Arquitetura de I Organização Básica B de (Parte V, Complementar)

Leia mais

Arquitetura e Organização de Computadores. Capítulo 0 - Introdução

Arquitetura e Organização de Computadores. Capítulo 0 - Introdução Arquitetura e Organização de Computadores Capítulo 0 - Introdução POR QUE ESTUDAR ARQUITETURA DE COMPUTADORES? 2 https://www.cis.upenn.edu/~milom/cis501-fall12/ Entender para onde os computadores estão

Leia mais

Sistemas Operacionais Aula 08: Sincronização de Processos. Ezequiel R. Zorzal ezorzal@unifesp.br www.ezequielzorzal.com

Sistemas Operacionais Aula 08: Sincronização de Processos. Ezequiel R. Zorzal ezorzal@unifesp.br www.ezequielzorzal.com Sistemas Operacionais Aula 08: Sincronização de Processos Ezequiel R. Zorzal ezorzal@unifesp.br www.ezequielzorzal.com Objetivos Introduzir o problema da seção crítica, cujas soluções podem ser usadas

Leia mais

Capítulo 2. Processos e Threads. Processos e threads

Capítulo 2. Processos e Threads. Processos e threads Capítulo 2 Processos e Threads 1 Processos e threads 1. Processos 2. Threads 3. Comunicação inter processos (IPC) 4. Problemas clássicos de IPC 5. Escalonamento (Scheduling) 2 1 Processos: O modelo de

Leia mais

FACULDADE PITÁGORAS DISCIPLINA: ARQUITETURA DE COMPUTADORES

FACULDADE PITÁGORAS DISCIPLINA: ARQUITETURA DE COMPUTADORES FACULDADE PITÁGORAS DISCIPLINA: ARQUITETURA DE COMPUTADORES Prof. Ms. Carlos José Giudice dos Santos cpgcarlos@yahoo.com.br www.oficinadapesquisa.com.br ESQUEMA DE UM COMPUTADOR Uma Unidade Central de

Leia mais

Computação Concorrente (MAB-117) Monitores

Computação Concorrente (MAB-117) Monitores Computação Concorrente (MAB-117) Monitores Prof. Silvana Rossetto 1 Departamento de Ciência da Computação (DCC) Instituto de Matemática (IM) Universidade Federal do Rio de Janeiro (UFRJ) Maio de 2012 1.

Leia mais

Máquinas virtuais. Máquina virtual de um processo. Máquinas virtuais (3) Máquina virtual de sistema. Máquinas virtuais (1) VMware para Windows e Linux

Máquinas virtuais. Máquina virtual de um processo. Máquinas virtuais (3) Máquina virtual de sistema. Máquinas virtuais (1) VMware para Windows e Linux System API Máquinas virtuais System ISA (Instruction Set Architecture) Aplicações Chamadas ao sistema Sistema de Operação Hardware User ISA (Instruction Set Architecture) Uma máquina virtual executa software

Leia mais

Sistemas Operacionais

Sistemas Operacionais Sistemas Operacionais Aula 5 Estrutura de Sistemas de Computação Prof.: Edilberto M. Silva http://www.edilms.eti.br Baseado no material disponibilizado por: SO - Prof. Edilberto Silva Prof. José Juan Espantoso

Leia mais

Arquitetura e Organização de Computadores. Capítulo 0 - Introdução

Arquitetura e Organização de Computadores. Capítulo 0 - Introdução Arquitetura e Organização de Computadores Capítulo 0 - Introdução POR QUE ESTUDAR ARQUITETURA DE COMPUTADORES? 2 https://www.cis.upenn.edu/~milom/cis501-fall12/ Entender para onde os computadores estão

Leia mais

Máquina de estados UNIX O

Máquina de estados UNIX O Estruturas Processos de Controle (Aula 5) Aula Interrupções Profa. Patricia Gerência fluxo, execução D. O Abstração passada Criação podendo de gerar hw e transição sw (mudança de CostaLPRM/DI/UFES que

Leia mais

Máquina de estados UNIX O. Sistemas Operacionais 2008/1Profa. Patricia S.O. computação: recursos D. S.O S.O. controla eventos no sistema de

Máquina de estados UNIX O. Sistemas Operacionais 2008/1Profa. Patricia S.O. computação: recursos D. S.O S.O. controla eventos no sistema de Estruturas Processos de Controle (Aula 5) Aula Interrupções Profa. Patricia Gerência fluxo, execução D. O Abstração passada Criação podendo de gerar hw e transição sw (mudança de CostaLPRM/DI/UFES que

Leia mais

Sistema de Computação

Sistema de Computação Sistema de Computação Máquinas multinível Nível 0 verdadeiro hardware da máquina, executando os programas em linguagem de máquina de nível 1 (portas lógicas); Nível 1 Composto por registrados e pela ALU

Leia mais

Sistemas Operacionais

Sistemas Operacionais Sistemas Operacionais Sistemas Operacionais Prof. Marcelo Sabaris Carballo Pinto Gerencia de Processos 4.1 Introdução aos Processos Gerenciamento de Processos Processo -Definição: É uma abstração do sistema

Leia mais

Sistemas Distribuídos

Sistemas Distribuídos Sistemas Distribuídos Processos I: Threads, virtualização e comunicação via protocolos Prof. MSc. Hugo Souza Nesta primeira parte sobre os Processos Distribuídos iremos abordar: Processos e a comunicação

Leia mais

Revisão Ultima aula [1/2]

Revisão Ultima aula [1/2] SOP - TADS Comunicação Interprocessos - 2 IPC Prof. Ricardo José Pfitscher dcc2rjp@joinville.udesc.br Material cedido por: Prof. Rafael Rodrigues Obelheiro Prof. Maurício Aronne Pillon Revisão Ultima aula

Leia mais

Sistemas Operacionais

Sistemas Operacionais Sumário 2 a edição Revisão: Fev/2003 Sistemas Operacionais Gerência do processador Capítulo 4 Implementação do conceito de processos e threads Escalonamento Escalonadores não -preemptivos Escalonamento

Leia mais

Imagem retirada de documentações de treinamentos oficiais INTEL

Imagem retirada de documentações de treinamentos oficiais INTEL O que é Hyper-Threading (HT)? Hyper-Threading (HT) é uma tecnologia existe nos processadores que visa explorar com mais eficiência o uso da CPU, o grande foco desta tecnologia é evitar ociosidade de processamento

Leia mais

Ciclo de Vida de um Processo

Ciclo de Vida de um Processo Nas aulas anteriores Ciclo de Vida de um Processo Marcelo Johann Conceito de Processo Mecanismo de Programação em C/UNIX Continuando Interrupções TRAP Chaveamento de Contexto Chamadas de Sistema INF01142

Leia mais

Remote Procedure Call. Programação distribuída e paralela (C. Geyer) RPC 1

Remote Procedure Call. Programação distribuída e paralela (C. Geyer) RPC 1 Remote Procedure Call Programação distribuída e paralela (C. Geyer) RPC 1 Autoria Autores C. Geyer Local II-UFRGS Versão V11.4 2014-2 Disciplinas SOII Programação distribuída e paralela (C. Geyer) RPC

Leia mais

Prof. Marcos Ribeiro Quinet de Andrade Universidade Federal Fluminense - UFF Pólo Universitário de Rio das Ostras - PURO

Prof. Marcos Ribeiro Quinet de Andrade Universidade Federal Fluminense - UFF Pólo Universitário de Rio das Ostras - PURO Conceitos básicos e serviços do Sistema Operacional Prof. Marcos Ribeiro Quinet de Andrade Universidade Federal Fluminense - UFF Pólo Universitário de Rio das Ostras - PURO Tipos de serviço do S.O. O S.O.

Leia mais

Experimentos com a memória cache do CPU

Experimentos com a memória cache do CPU Experimentos com a memória cache do CPU Alberto Bueno Júnior & Andre Henrique Serafim Casimiro Setembro de 2010 1 Contents 1 Introdução 3 2 Desvendando o cache 3 2.1 Para que serve o cache?.....................

Leia mais

Avaliação de Desempenho do OpenMP em Arquiteturas Paralelas

Avaliação de Desempenho do OpenMP em Arquiteturas Paralelas UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL INSTITUTO DE INFORMÁTICA CURSO DE CIÊNCIA DA COMPUTAÇÃO LEANDRO ZULIAN GALLINA Avaliação de Desempenho do OpenMP em Arquiteturas Paralelas Prof. Nicolas Maillard

Leia mais

Introdução. Sistemas Operacionais

Introdução. Sistemas Operacionais FATEC SENAC Introdução à Sistemas Operacionais Rodrigo W. Fonseca Sumário Definição de um S.O. Características de um S.O. História (evolução dos S.O.s) Estruturas de S.O.s Tipos de Sistemas Operacionais

Leia mais

Sobre a apresentação (About(

Sobre a apresentação (About( Capítulo 4: Threads Sobre a apresentação (About( the slides) Os slides e figuras dessa apresentação foram criados por Silberschatz, Galvin e Gagne em 2005. Esse apresentação foi modificada por Cristiaino

Leia mais

ARQUITETURA DE COMPUTADORES

ARQUITETURA DE COMPUTADORES 01001111 01110010 01100111 01100001 01101110 01101001 01111010 01100001 11100111 11100011 01101111 00100000 01100100 01100101 00100000 01000011 01101111 01101101 01110000 01110101 01110100 01100001 01100100

Leia mais

Sistemas Distribuídos

Sistemas Distribuídos Sistemas Distribuídos Processos e Threads Gustavo Reis gustavo.reis@ifsudestemg.edu.br - O que são Processos? Uma abstração de um programa em execução. Mantêm a capacidade de operações (pseudo)concorrentes,

Leia mais

Paralelismo. Computadores de alto-desempenho são utilizados em diversas áreas:

Paralelismo. Computadores de alto-desempenho são utilizados em diversas áreas: Computadores de alto-desempenho são utilizados em diversas áreas: - análise estrutural; - previsão de tempo; - exploração de petróleo; - pesquisa em fusão de energia; - diagnóstico médico; - simulações

Leia mais

Sistemas Operacionais

Sistemas Operacionais Sistemas Operacionais Gerência do processador 2 a edição Capítulo 4 Revisão: Fev/2003 Sumário Implementação do conceito de processos e threads Escalonamento Escalonadores não -preemptivos Escalonamento

Leia mais

Sistemas Operacionais

Sistemas Operacionais Sistemas Operacionais Gerência de processos Edson Moreno edson.moreno@pucrs.br http://www.inf.pucrs.br/~emoreno Introdução Multiprogramação Permite a execução de diversos processos concorrentemente Maior

Leia mais

BACHARELADO EM SISTEMAS DE INFORMAÇÃO EaD UAB/UFSCar Sistemas de Informação - prof. Dr. Hélio Crestana Guardia

BACHARELADO EM SISTEMAS DE INFORMAÇÃO EaD UAB/UFSCar Sistemas de Informação - prof. Dr. Hélio Crestana Guardia O Sistema Operacional que você usa é multitasking? Por multitasking, entende-se a capacidade do SO de ter mais de um processos em execução ao mesmo tempo. É claro que, num dado instante, o número de processos

Leia mais

SO - Conceitos Básicos. Introdução ao Computador 2010/01 Renan Manola

SO - Conceitos Básicos. Introdução ao Computador 2010/01 Renan Manola SO - Conceitos Básicos Introdução ao Computador 2010/01 Renan Manola Definição de SO É uma camada de software que opera entre o hardware e os programas aplicativos voltados ao usuário final. É uma estrutura

Leia mais

Sistemas Operacionais Distribuídos e Multiprocessados

Sistemas Operacionais Distribuídos e Multiprocessados Tópicos em Sistemas Operacionais Sistemas Operacionais Distribuídos e Multiprocessados Por André Macedo, Marcelo Moraes, Thaís Fernandes Sumário Teoria: Sistemas Multiprocessados Estudo de caso:k42 Teoria:

Leia mais

Processos (Threads,Virtualização e Migração de Código)

Processos (Threads,Virtualização e Migração de Código) Processos (Threads,Virtualização e Migração de Código) Roteiro Processos Threads Virtualização Migração de Código O que é um processo?! Processos são programas em execução. Processo Processo Processo tem

Leia mais