Entropia, Entropia Relativa

Tamanho: px
Começar a partir da página:

Download "Entropia, Entropia Relativa"

Transcrição

1 Entropia, Entropia Relativa e Informação Mútua Miguel Barão Departamento de Informática Universidade de Évora 13 de Março de Introdução Suponhamos que uma fonte gera símbolos a um determinado ritmo e que os símbolos são obtidos aleatoriamente a partir de um alfabeto finito X = {A, B, C, D}. Suponhamos ainda que todos os símbolos são equiprováveis. Uma possível sequência de símbolos seria a seguinte: CDBDDCBDADBAACCB (1) Se quisermos representar esta sequência num computador, surgem-nos imediatamente duas questões: 1. De que forma se pode representar esta sequência usando apenas os símbolos binários 0 e 1? 2. Quantos bits são necessários para a representar? Vamos começar por responder à segunda questão, deixando para mais tarde a primeira. Se temos um alfabeto com quatro símbolos, precisamos de log 2 4 = 2 bits para representar cada símbolo. Assim, a sequência anterior precisaria de 16 2 = 32 bits para ser representada. Um código possível seria o seguinte: A = 00, B = 01, C = 10, D = 11. A sequência anterior seria representada pela sequência binária De forma geral, para um alfabeto X de tamanho n em que todos os símbolos são equiprováveis, cada símbolo necessita de log 2 n bits para ser representado. Como a probabilidade de sair um dado símbolo x i é de p(x i ) = 1 n, o número de bits necessário para representar cada símbolo pode ser escrito em função da probabilidade dos símbolos da seguinte forma: nbits = log 2 n = log 2 1 p(x i ) = log 2 p(x i ), para qualquer i. No exemplo anterior, os símbolos eram todos equiprováveis. Pode, no entanto, dar-se o caso de haver símbolos que ocorrem com maior frequência que outros. Consideremos um caso concreto. 1

2 Suponhamos que temos o mesmo alfabeto X = {A, B, C, D} em que os símbolos ocorrem com probabilidades { 1 2, 1 4, 1 8, 1 8 }, respectivamente. Será possível tirar partido destas probabilidades de forma a codificar os símbolos tal que se usem, em média, menos bits por símbolo? A resposta a esta pergunta é: SIM! (tente arranjar um código que consiga este objectivo. Por exemplo, usando códigos de comprimento diferente para cada símbolo). 2 Entropia, Entropia Conjunta e Entropia Condicional O conceito de entropia na teoria da informação tem origem no trabalho de Shannon Sha48] que mostra que processos aleatórios tais como a fala ou a música têm uma complexidade abaixo da qual o sinal não pode ser comprimido. A esta complexidade ele chamou entropia 1. Suponhamos que X é uma v.a. discreta com alfabeto X e distribuição de probabilidade p(x) = P r(x = x), x X. Definição 2.1. A entropia H(X) de uma v.a. discreta X é definida por H(X) def = p(x) log p(x) (2) x X em que o logaritmo é na base 2 (todos os logaritmos daqui em diante são na base 2 excepto quando explicitamente indicado) e a entropia é expressa em bits. Se X p(x) é frequente usar a distribuição p em vez da v.a. X e portanto pode escrever-se H(p) com o mesmo significado que H(X). Como primeiro exercício, pode aplicar-se a definição de entropia ao problema proposto na secção 1. Exemplo 2.1. Pretende calcular-se a entropia da v.a. X, em que os símbolos do alfabeto X = {A, B, C, D} são todos equiprováveis. Aplicando a definição de entropia (2) obtém-se ( 1 H(X) = 4 4 log 1 ) = 2 bits, 4 que coincide exactamente com o número de bits necessário para codificar cada símbolo. Será coincidência? Se repararmos na definição de entropia, verifica-se que ela pode escrever-se como o valor esperado de log p(x), i.e., H(X) = E log p(x)]. Como log p(x) representa, no caso de símbolos equiprováveis, o número de bits necessário para representar cada símbolo, então H(X) é o valor esperado de uma constante: o número de bits por símbolo. Vejamos o que acontece agora no caso em que os símbolos não são equiprováveis. Se conseguirmos escrever um código em que cada símbolo pode ser representado com log p(x i ) bits, i.e., um código em que os símbolos mais prováveis usam menos bits, então a entropia pode ser interpretada como o comprimento médio dos códigos. Já sabemos que um código destes existe se os símbolos são equiprováveis. É o código apresentado na secção 1. Falta saber se também é possível criar um código com esta propriedade no caso dos símbolos não serem equiprováveis. 1 O nome entropia deriva da física, em particular da física estatística, onde era usado como medida do estado de desordem de um sistema. 2

3 Exemplo 2.2. Um código possível para o segundo caso da secção 1 em que os símbolos {A, B, C, D} têm probabilidade { 1 2, 1 4, 1 8, 1 8 } é o seguinte: É possivel observar neste exemplo que: A = 0, B = 10, C = 110, D = Os comprimentos dos códigos coincidem com os obtidos pela fórmula log p(x). Por exemplo, o comprimento do código C é de três bits e log 1 8 = A entropia de X é H(X) = = 1.75 bits. Ou seja, são necessários 1.75 bits em média para codificar cada símbolo (no caso dos símbolos equiprováveis eram necessários 2 bits). 3. Uma mensagem gerada com as probabilidades indicadas acima é, por exemplo, a seguinte: Esta mensagem seria codificada como ABBDBABAAADBABCA (3) (4) usando apenas 28 bits, o que dá uma média de = 1.75 bits por símbolo. 4. A mensagem codificada pode ser descodificada de forma unívoca (tente descodificar a mensagem (4)). Repare que nenhum dos códigos é prefixo de outro, e portanto não há ambiguidade na descodificação da mensagem. Um código deste tipo chama-se código de prefixo. O exemplo anterior foi construído artificialmente para ilustrar o conceito de entropia. Não é necessariamente verdade que se consiga construir um código de prefixo como o anterior, em que o comprimento do código de um símbolo x i X é exactamente igual a log p(x i ). Em geral, isso não acontece. Assim, a entropia é apenas um limite mínimo teórico para o número de bits por símbolo atingível num código de prefixo. É no entanto, um conceito fundamental e muito importante. Em seguida extende-se a definição de entropia para o caso de distribuições conjuntas de várias variáveis aleatórias e define-se entropia condicional. Definição 2.2. A entropia conjunta H(X, Y ) das variáveis aleatórias X e Y com distribuição de probabilidade conjunta p(x, y) é definida como H(X, Y ) def = p(x, y) log p(x, y), (5) x X y Y ou equivalentemente, H(X, Y ) def = E log p(x, Y )]. (6) A entropia conjunta de n variáveis aleatórias é definida de forma análoga. Definição 2.3. Se (X, Y ) p(x, y), então a entropia condicional H(Y X) é definida como H(Y X) def = p(x)h(y X = x) x X = p(x) p(y x) log p(y x) x X y Y = p(x, y) log p(y x) x X y Y = E p(x,y) log p(y X)] (7) 3

4 Teorema 2.1 (Regra da cadeia). A entropia verifica a seguinte propriedade: H(X, Y ) = H(Y X) + H(X). (8) Demonstração. Esta regra deriva da regra da cadeia nas probabilidades, em que sabemos que p(x, y) = p(y x)p(x). Aplicando o logaritmo a esta equação e depois o valor esperado relativamente a p(x, y), obtém-se o resultado enunciado no teorema. Como exemplo de aplicação das duas definições anteriores (entropia conjunta e entropia condicional) e da regra da cadeia, vamos considerar uma mensagem escrita em português. Exemplo 2.3. Suponha-se que uma fonte gerou a mensagem O MANUEL VEM JANTAR A CASA com símbolos obtidos do alfabeto X = {, A, B, C,..., Z}. Neste exemplo, e ao contrário do que acontecia nos casos anteriores, os símbolos (letras) não são gerados de forma independente uns dos outros, e.g., se a fonte gerar a letra B, a probabilidade de a letra seguinte ser outro B ou um espaço é zero uma vez que a língua portuguesa não o permite, mas a probabilidade de a seguir sair a letra U ou R já não é zero, uma vez que a palavra poderia ser BURRO ou ABRIR. Assim, podemos definir uma distribuição de probabilidade para as letras que ocorrem a seguir ao B. Esta distribuição é a distribuição de probabilidade condicional P (X 2 X 1 = B). Genericamente, temos definida uma distribuição condicional p(x k+1 x k ) em que x k é a k-ésima letra da mensagem e x k+1 a letra seguinte. Podemos agora calcular a entropia conjunta de uma sequência de duas letras. Suponhamos que X 1 e X 2 são duas variáveis aleatórias correspondentes às duas primeiras letras da frase. Qual é a entropia conjunta H(X 1, X 2 )? Pela regra da cadeia temos que H(X 1, X 2 ) = H(X 1 ) + H(X 2 X 1 ). Aplicando as definições de entropia e entropia condicional, obtemos o resultado pretendido. Na realidade, para uma mensagem como a do exemplo anterior, a distribuição de probabilidade de um símbolo x k não depende apenas do símbolo anterior, mas de todos os símbolos que o precedem. A expressão da entropia conjunta da frase completa é uma soma de entropias condicionais envolvendo cada símbolo e todos os símbolos passados, H(X 1,..., X n ) = n H(X i X i 1,..., X 1 ). (9) i=1 A entropia goza das seguintes propriedades que se apresentam em seguida sem demonstração (os detalhes estão em CT91]). 1. A entropia é sempre não-negativa: H(X) 0; 2. Se H(Y X) = 0 então Y = g(x), i.e., se a entropia condicional se anula então a v.a. Y não contém informação adicional relativamente àquela contida em X. 4

5 3 Entropia Relativa e Entropia Relativa Condicional A entropia relativa D(p q) mede a ineficiência de assumir que uma distribuição é q quando a distribuição verdadeira é p. Por exemplo, se soubermos a distribuição verdadeira de uma variável aleatória, podemos construir um código com comprimento médio H(p). No entanto, se usarmos um código desenhado para uma distribuição q, haveria uma desadequação do código à variável aleatória e seriam necessários H(p) + D(p q) bits em média para descrever a variável aleatória. Definição 3.1. A entropia relativa ou divergência de Kullback-Leibler entre duas distribuições p e q é definida por D(p q) def = p(x) log p(x) q(x) x X = E p(x) log p(x) q(x) ]. (10) Usa-se a convenção de que 0 log 0 q = 0 e p log p 0 =. Exemplo 3.1. Considere-se o problema em que fonte gera símbolos do alfabeto X = {A, B, C, D} com probabilidades p(x) dadas respectivamente por { 1 2, 1 4, 1 8, 1 8 }. Usando um código de prefixo desenhado especificamente para esta fonte é possível atingir um número médio de bits por símbolo igual à entropia H(X), que neste caso é de 1.75 bits como se viu na secção anterior. Se em vez deste, usarmos o código {00, 01, 10, 11} desenhado para o caso em que as probabilidades dos símbolos eram todas iguais a q(x) = 1 4, i.e., com comprimento de código igual a log 1 4 = 2 bits, o número médio de bits por símbolo é E p(x) log q(x)] = = 2. (11) 8 Ou seja, pelo facto usarmos um código que não foi desenhado para a fonte, necessitamos de usar mais 0.25 bits por símbolo. Essa ineficiência é a diferença entre o número de médio de bits necessário em cada um dos casos que, conforme se pode verificar facilmente, é igual à entropia relativa D(p q) E p(x) log q(x)] H(X) = E } {{ } } {{ } p(x) log q(x)] E p(x) log p(x)] 2 bits 1.75 bits = E p(x) log q(x) + log p(x)] = E p(x) log p(x) ] q(x) = D(p q). (12) Definição 3.2 (*). A entropia relativa condicional D(p(y x) q(y x)) é obtida a partir da entropia relativa entre p(y x) e q(y x) fazendo a média ponderada com p(x) D(p(y x) q(y x)) def = p(x) p(y x) log p(y x) q(y x) x X y Y ] p(y X) = E p(x,y) log. q(y X) (13) 5

6 4 Informação Mútua e Informação Mútua Condicional De forma informal, a informação mútua é uma medida da quantidade de informação que uma variável aleatória contém àcerca da outra. Definição 4.1. Considere duas variáveis aleatórias X e Y com distribuição conjunta p(x, y) e distribuições marginais p(x) e p(y). A informação mútua I(X; Y ) é a entropia relativa entre a distribuição conjunta e o produto das marginais I(X; Y ) def = x X p(x, y) log y Y p(x, y) p(x)p(y) = D(p(x, y) p(x)p(y)) = E p(x,y) log p(x, Y ) ]. p(x)p(y ) Exemplo 4.1. Considere duas variáveis aleatórias independentes X e Y com distribuições de probabilidade p(x) e p(y). Qual a informação mútua I(X; Y )? Resp.: Como as v.a. são independentes, temos que p(x, y) = p(x)p(y), e portanto I(X; Y ) = E p(x,y) log p(x, Y ) ] p(x)p(y ) = E p(x,y) log p(x)p(y ) ] (15) p(x)p(y ) = 0. Este resultado era esperado uma vez que X e Y são independentes. Definição 4.2 (*). A informação mútua condicional das variáveis aleatórias X e Y dado Z é definida por (14) I(X; Y Z) def = H(X Z) H(X Y, Z) = E p(x,y,z) log p(x, Y Z) p(x Z)p(Y Z) ]. (16) 5 Propriedades Nesta secção apresenta-se um conjunto de propriedades gozadas pela entropia, entropia relativa e informação mútua. As demonstrações em falta estão no capítulo 2 de CT91]. Teorema 5.1 (Relação entre informação mútua e entropia). I(X; Y ) = I(Y ; X) (17) I(X; X) = H(X) (18) I(X; Y ) = H(X) H(X Y ) (19) I(X; Y ) = H(Y ) H(Y X) (20) I(X; Y ) = H(X) + H(Y ) H(X, Y ) (21) A figura 1 ilustra estas relações usando um diagrama de Venn. Demonstração. Fica como exercício provar cada uma das igualdades (17) (21). 6

7 H(X,Y) H(X Y) I(X;Y) H(Y X) H(Y) H(X) Figura 1: Relação entre a entropia e a informação mútua. Teorema 5.2 (Regra da cadeia para a entropia). H(X 1,..., X n ) = n H(X i X i 1,..., X 1 ) (22) i=1 Teorema 5.3 (Regra da cadeia para a entropia relativa). D(p(x, y) q(x, y)) = D(p(x) q(x)) + D(p(y x) q(y x)) (23) Teorema 5.4 (Regra da cadeia para a informação mútua). I(X 1,..., X n ; Y ) = n I(X i ; Y X i 1,..., X 1 ) (24) i=1 Teorema 5.5 (Desigualdade da informação). A igualdade verifica-se se e só se p(x) = q(x) para todo o x X. D(p q) 0 (25) Corolário (Não negatividade da informação mútua). Para quaisquer duas variáveis aleatórias X e Y, I(X; Y ) 0 (26) com igualdade se e só se X e Y são independentes. Teorema 5.6. H(X) log X, em que X é o número de elementos de X. A igualdade verifica-se se e só se X tem distribuição uniforme em X. Demonstração. Seja u(x) = 1 X uma distribuição uniforme em X. Então D(p u) = x X p(x) log p(x) = log X H(X). u(x) 7

8 Como a entropia relativa é sempre não negativa D(p u) 0, temos que log X H(X) 0. Teorema 5.7 (Condicionamento reduz a entropia). com igualdade se e só se X e Y são independentes. H(X Y ) H(X) (27) Demonstração. 0 I(X; Y ) = H(X) H(X Y ) Teorema 5.8. Se X 1,..., X n são obtidos de acordo com p(x 1,..., x n ), então H(X 1,..., X n ) n H(X i ) (28) i=1 com igualdade se e só se as v.a. X i são independentes. Demonstração. Aplicando a regra da cadeia para a entropia seguida do teorema 5.7, obtém-se o resultado pretendido. Referências CT91] Thomas M. Cover and Joy A. Thomas. Elements of Information Theory. John-Wiley, Sha48] Claude E. Shannon. A mathematical theory of communication. The Bell System Technical Journal, 27: , ,

Canais discretos sem memória e capacidade do canal

Canais discretos sem memória e capacidade do canal Canais discretos sem memória e capacidade do canal Luis Henrique Assumpção Lolis 17 de outubro de 2013 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 1 Conteúdo 1 Canais

Leia mais

TEORIA DE INFORMAÇÃO UM NANOCURSO

TEORIA DE INFORMAÇÃO UM NANOCURSO TEORIA DE INFORMAÇÃO UM NANOCURSO Max H. M. Costa Unicamp Set. 2016 Centenário de Shannon - SBrT - Santarém Dedicação: a memória de Claude Shannon Claude Shannon 1916-2001 matemático, engenheiro eletrônico,

Leia mais

canal para sinais contínuos

canal para sinais contínuos Processos estocásticos, Entropia e capacidade de canal para sinais contínuos 24 de setembro de 2013 Processos estocásticos, Entropia e capacidade de canal para1 sin Conteúdo 1 Probabilidade de sinais contínuos

Leia mais

Teoria da Informação

Teoria da Informação Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/

Leia mais

2 Teoria da Informação

2 Teoria da Informação 2 Teoria da Informação Neste capítulo apresentamos alguns conceitos básicos sobre Teoria da Informação que utilizaremos durante este trabalho. 2.1 Alfabeto, texto, letras e caracteres Um alfabeto Σ = (σ

Leia mais

Fundamentos da Teoria de Informação

Fundamentos da Teoria de Informação Fundamentos da Teoria de Informação 1 Introdução... 2 2 Informação... 3 3 Entropia... 6 3.1 Entropia Exemplos... 7 3.2 Entropia Conjunta e Entropia Condicional... 12 3.3 Entropia e Codificação de Fonte...

Leia mais

Compressão Sem Perdas: Codificações Huffman e Aritmética. Adelar da Silva Queiróz Marcelo Teixeira Thiago da Silva Sodré

Compressão Sem Perdas: Codificações Huffman e Aritmética. Adelar da Silva Queiróz Marcelo Teixeira Thiago da Silva Sodré Compressão Sem Perdas: Codificações Huffman e Aritmética Adelar da Silva Queiróz Marcelo Teixeira Thiago da Silva Sodré Compressão Sem Perdas (Lossless Data Compression) Refere-se a métodos de compressão

Leia mais

Sílvio A. Abrantes. Uns pequenos truques que facilitam alguns cálculos de Códigos e Teoria da Informação

Sílvio A. Abrantes. Uns pequenos truques que facilitam alguns cálculos de Códigos e Teoria da Informação Sílvio A. Abrantes Livro de receitas. Receitas?! Uns pequenos truques que facilitam alguns cálculos de Códigos e Teoria da Informação Abril 00 Codificação aritmética: Representação binária de números reais

Leia mais

Faculdade de Engenharia da Computação

Faculdade de Engenharia da Computação Faculdade de Engenharia da Computação Disciplina Segurança Aplicada a Computação Teoria da Informação conceito de Entropia, Difusão, Criptossistemas Aleatórios, Redundância Relativa, Distância de Unicidade

Leia mais

Momentos: Esperança e Variância. Introdução

Momentos: Esperança e Variância. Introdução Momentos: Esperança e Variância. Introdução Em uma relação determinística pode-se ter a seguinte relação: " + " = 0 Assim, m =, é a declividade e a e b são parâmetros. Sabendo os valores dos parâmetros

Leia mais

SM - Sistemas Multimédia CODIFICAÇÃO DE FONTE (parte 2) 4.º / 6.º semestre LEIC (verão 2016/2017)

SM - Sistemas Multimédia CODIFICAÇÃO DE FONTE (parte 2) 4.º / 6.º semestre LEIC (verão 2016/2017) SM - Sistemas Multimédia CODIFICAÇÃO DE FONTE (parte 2) 4.º / 6.º semestre LEIC (verão 2016/2017) Tópicos Propriedades dos códigos de fonte Código ótimo e código ideal Singularidade, descodificação única,

Leia mais

L.J. Amoreira UBI. Dezembro 2010

L.J. Amoreira UBI. Dezembro 2010 Definição de informação L.J. Amoreira UBI Dezembro 2010 Entropia (ou incerteza [ou ignorância]) A incerteza associada a uma variável aleatória X que pode tomar os valores x 1, x 2,..., x n com probabilidades

Leia mais

VARIÁVEIS ALEATÓRIAS

VARIÁVEIS ALEATÓRIAS UNIVERSIDADE FEDERAL DE JUIZ DE FORA INSTITUTO DE CIÊNCIAS EXATAS DEPARTAMENTO DE ESTATÍSTICA VARIÁVEIS ALEATÓRIAS Joaquim H Vianna Neto Relatório Técnico RTE-03/013 Relatório Técnico Série Ensino Variáveis

Leia mais

3. Variáveis aleatórias

3. Variáveis aleatórias 3. Variáveis aleatórias Numa eperiência aleatória, independentemente de o seu espaço de resultados ser epresso numericamente, há interesse em considerar-se funções reais em Ω, denominadas por variáveis

Leia mais

Recorrendo à nossa imaginação podemos tentar escrever números racionais de modo semelhante: 1 2 = 1 + 3 + 32 +

Recorrendo à nossa imaginação podemos tentar escrever números racionais de modo semelhante: 1 2 = 1 + 3 + 32 + 1 Introdução Comecemos esta discussão fixando um número primo p. Dado um número natural m podemos escrevê-lo, de forma única, na base p. Por exemplo, se m = 15 e p = 3 temos m = 0 + 2 3 + 3 2. Podemos

Leia mais

Derivadas 1 DEFINIÇÃO. A derivada é a inclinação da reta tangente a um ponto de uma determinada curva, essa reta é obtida a partir de um limite.

Derivadas 1 DEFINIÇÃO. A derivada é a inclinação da reta tangente a um ponto de uma determinada curva, essa reta é obtida a partir de um limite. Derivadas 1 DEFINIÇÃO A partir das noções de limite, é possível chegarmos a uma definição importantíssima para o Cálculo, esta é a derivada. Por definição: A derivada é a inclinação da reta tangente a

Leia mais

CAPÍTULO 5: VARIÁVEIS ALEATÓRIAS BIDIMENSIONAIS Todas as coisas aparecem e desaparecem por causa da concorrência de causas e condições. Nada nunca existe inteiramente só, tudo está em relação com todo

Leia mais

Motivação. VA n-dimensional. Distribuições Multivariadas VADB. Em muitas situações precisamos

Motivação. VA n-dimensional. Distribuições Multivariadas VADB. Em muitas situações precisamos Motivação Em muitas situações precisamos Prof. Lorí Viali, Dr. viali@pucrs.br lidar com duas ou mais variáveis aleatórias ao mesmo tempo. Por exemplo o comprimento e a largura de uma determinada peça.

Leia mais

Notas de Aula Aula 2, 2012/2

Notas de Aula Aula 2, 2012/2 Lógica para Ciência da Computação Notas de Aula Aula 2, 2012/2 Renata de Freitas & Petrucio Viana Departamento de Análise, IME UFF 23 de janeiro de 2013 Sumário 1 Conteúdo e objetivos 1 2 Legibilidade

Leia mais

Redes Neuronais e Aprendizagem Automática 1

Redes Neuronais e Aprendizagem Automática 1 Redes Neuronais e Aprendizagem Automática 2005/2006 17 a aula Fernando.Silva@ist.utl.pt Instituto Superior Técnico Redes Neuronais e Aprendizagem Automática 1 Sumário Árvores de decisão (continuação) Entropia.

Leia mais

Variáveis Aleatórias Discretas 1/1

Variáveis Aleatórias Discretas 1/1 Variáveis Aleatórias Discretas Professores Eduardo Zambon e Magnos Martinello UFES Universidade Federal do Espírito Santo DI Departamento de Informática CEUNES Centro Universitário Norte do Espírito Santo

Leia mais

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Distribuições Condicionais 11/13 1 / 19 Em estudo feito em sala perguntamos aos alunos qual

Leia mais

INE5403 FUNDAMENTOS DE MATEMÁTICA DISCRETA

INE5403 FUNDAMENTOS DE MATEMÁTICA DISCRETA INE5403 FUNDAMENTOS DE MATEMÁTICA DISCRETA PARA A COMPUTAÇÃO PROF. DANIEL S. FREITAS UFSC - CTC - INE Prof. Daniel S. Freitas - UFSC/CTC/INE/2007 p.1/30 3 - INDUÇÃO E RECURSÃO 3.1) Indução Matemática 3.2)

Leia mais

5. EQUAÇÕES E INEQUAÇÕES EXPONENCIAIS E LOGARÍTMICAS

5. EQUAÇÕES E INEQUAÇÕES EXPONENCIAIS E LOGARÍTMICAS 57 5. EQUAÇÕES E INEQUAÇÕES EXPONENCIAIS E LOGARÍTMICAS 5.. EQUAÇÕES EXPONENCIAIS Equações que envolvem termos em que a incógnita aparece no epoente são chamadas de equações eponenciais. Por eemplo, =

Leia mais

SEGUNDO Massey [1] a história da criptologia mostra

SEGUNDO Massey [1] a história da criptologia mostra REVISTA DE TECNOLOGIA DA INFORMAÇÃO E COMUNICAÇÃO, NÚMERO 1, OUTUBRO 2011 14 Aspectos de Segurança de Cifras de Chave-Secreta Valdemar C. da Rocha Jr. Grupo de Pesquisa em Comunicações, Departamento de

Leia mais

Convergência em espaços normados

Convergência em espaços normados Chapter 1 Convergência em espaços normados Neste capítulo vamos abordar diferentes tipos de convergência em espaços normados. Já sabemos da análise matemática e não só, de diferentes tipos de convergência

Leia mais

Procedimentos e Algorítmos Programas e Linguagens de Programação Tese de Church-Turing Formas de Representação de Linguagens

Procedimentos e Algorítmos Programas e Linguagens de Programação Tese de Church-Turing Formas de Representação de Linguagens Procedimentos e Algorítmos Programas e Linguagens de Programação Tese de Church-Turing Formas de Representação de Linguagens 1 Introdução Estudar computação do ponto de vista teórico é sinônimo de caracterizar

Leia mais

Fun c ao Logaritmo Fun c ao Logaritmo ( ) F. Logaritmo Matem atica II 2008/2009

Fun c ao Logaritmo Fun c ao Logaritmo ( ) F. Logaritmo Matem atica II 2008/2009 Função Logaritmo (27-02-09) Função Logaritmo Acabámos de estudar a função exponencial, cuja forma mais simples é a função f(x) = e x. Resolvemos vários problemas que consistiam em calcular f(x 0 ) para

Leia mais

Lógica de Predicados

Lógica de Predicados Lógica de Predicados Conteúdo Correção dos Exercícios (Rosen 47) Prioridade dos Quantificadores (Rosen 38) Ligando Variáveis (Rosen 38) Predicados com duas variáveis. Equivalências lógicas (Rosen 39) Negando

Leia mais

VARIÁVEIS ALEATÓRIAS E DISTRIBUIÇÕES DE PROBABILIDADE

VARIÁVEIS ALEATÓRIAS E DISTRIBUIÇÕES DE PROBABILIDADE VARIÁVEIS ALEATÓRIAS E DISTRIBUIÇÕES DE PROBABILIDADE.1 INTRODUÇÃO Admita que, de um lote de 10 peças, 3 das quais são defeituosas, peças são etraídas ao acaso, juntas (ou uma a uma, sem reposição). Estamos

Leia mais

Aula 27 - Álgebra II. x (m(x)), x 2 + x + (m(x)), x 2 + x (m(x)) operações deste corpo são as seguintes:

Aula 27 - Álgebra II. x (m(x)), x 2 + x + (m(x)), x 2 + x (m(x)) operações deste corpo são as seguintes: Já vimos maneiras de codificar mensagens de modo a que, no caso de ocorrerem alguns erros na sua transmissão, o receptor possa ser capaz de corrigir esses erros. Esses códigos, chamados códigos lineares

Leia mais

Curso Profissional de Nível Secundário

Curso Profissional de Nível Secundário Curso Profissional de Nível Secundário Técnico Auxiliar de Saúde 2 TAS Ano Letivo: 2014/2015 Matemática (200 horas) 11º Ano PLANIFICAÇÃO A LONGO PRAZO A7 Probabilidades Fenómenos aleatórios. 2 aulas Argumento

Leia mais

Ficha de trabalho Decomposição e resolução de equações e inequações polinomiais

Ficha de trabalho Decomposição e resolução de equações e inequações polinomiais Ficha de trabalho Decomposição e resolução de equações e inequações polinomiais 1. Verifique, recorrendo ao algoritmo da divisão, que: 6 4 0x 54x + 3x + é divisível por x 1.. De um modo geral, que relação

Leia mais

Elementos de Teoria da Informação

Elementos de Teoria da Informação Elementos de Teoria da Informação Mário A. T. Figueiredo Departamento de Engenharia Electrotécnica e de Computadores Instituto Superior Técnico 1049-001 Lisboa Portugal Versão 1.5 Novembro de 2007 2 Conteúdo

Leia mais

Análise de dados em Fisica de Particulas

Análise de dados em Fisica de Particulas Análise de dados em Fisica de Particulas Magno V.T. Machado Instituto de Fisica - UFRGS Escola de Fisica de Particulas e Campos. Agosto 05-09, 2013 Números aleatórios e Monte Carlo Muitas aplicações computacionais

Leia mais

Enunciados Quantificados Equivalentes

Enunciados Quantificados Equivalentes Lógica para Ciência da Computação I Lógica Matemática Texto 15 Enunciados Quantificados Equivalentes Sumário 1 Equivalência de enunciados quantificados 2 1.1 Observações................................

Leia mais

Um Passeio pela Teoria da Informação

Um Passeio pela Teoria da Informação WECIQ 2006 - Mini-curso 3 Um Passeio pela Teoria da Informação (Clássica e Quântica) Carlile Lavor 1 1 Instituto de Matemática, Estatística e Computação Científica UNICAMP clavor@ime.unicamp.br 1. Introdução

Leia mais

Variáveis Aleatórias Contínuas e Distribuição de Probabilidad

Variáveis Aleatórias Contínuas e Distribuição de Probabilidad Variáveis Aleatórias Contínuas e Distribuição de Probabilidades - parte I 2012/02 1 Variáveis Aleatórias Contínuas 2 Distribuições de Probabilidade e Funções Densidades de Probabil 3 4 Objetivos Ao final

Leia mais

Teoremas e Propriedades Operatórias

Teoremas e Propriedades Operatórias Capítulo 10 Teoremas e Propriedades Operatórias Como vimos no capítulo anterior, mesmo que nossa habilidade no cálculo de ites seja bastante boa, utilizar diretamente a definição para calcular derivadas

Leia mais

Processos Estocásticos

Processos Estocásticos Processos Estocásticos Quarta Lista de Exercícios 12 de fevereiro de 2014 1 Sejam X e Y duas VAs que só podem assumir os valores 1 ou -1 e seja p(x, y) = P (X = x, Y = y), x, y { 1, 1} a função de probabilidade

Leia mais

ESCOLA SECUNDÁRIA DE LOUSADA

ESCOLA SECUNDÁRIA DE LOUSADA ESCOLA SECUNDÁRIA DE LOUSADA 2012 2013 PLANIFICAÇÃO DA DISCIPLINA DE MATEMÁTICA Curso Profissional de Técnico de Multimédia ELENCO MODULAR A7 Probabilidades 28 A6 Taxa de variação 36 A9 Funções de crescimento

Leia mais

Estatística Aplicada I

Estatística Aplicada I Estatística Aplicada I ESPERANCA MATEMATICA AULA 1 25/04/17 Prof a Lilian M. Lima Cunha Abril de 2017 EXPERIMENTO RESULTADOS EXPERIMENTAIS VARIÁVEL ALEATÓRIA X = variável aleatória = descrição numérica

Leia mais

Derivadas. Derivadas. ( e )

Derivadas. Derivadas. ( e ) Derivadas (24-03-2009 e 31-03-2009) Recta Tangente Seja C uma curva de equação y = f(x). Para determinar a recta tangente a C no ponto P de coordenadas (a,f(a)), i.e, P(a, f(a)), começamos por considerar

Leia mais

8. Árvores. Fernando Silva DCC-FCUP. Estruturas de Dados. Fernando Silva (DCC-FCUP) 8. Árvores Estruturas de Dados 1 / 38

8. Árvores. Fernando Silva DCC-FCUP. Estruturas de Dados. Fernando Silva (DCC-FCUP) 8. Árvores Estruturas de Dados 1 / 38 8. Árvores Fernando Silva DCC-FCUP Estruturas de Dados Fernando Silva (DCC-FCUP) 8. Árvores Estruturas de Dados 1 / 38 Árvores - estruturas não lineares (1) Uma lista é um exemplo de uma estrutura de dados

Leia mais

8. Árvores. Fernando Silva. Estruturas de Dados DCC-FCUP. Fernando Silva (DCC-FCUP) 8. Árvores Estruturas de Dados 1 / 38

8. Árvores. Fernando Silva. Estruturas de Dados DCC-FCUP. Fernando Silva (DCC-FCUP) 8. Árvores Estruturas de Dados 1 / 38 8. Árvores Fernando Silva DCC-FCUP Estruturas de Dados Fernando Silva (DCC-FCUP) 8. Árvores Estruturas de Dados 1 / 38 Árvores - estruturas não lineares (1) Uma lista é um exemplo de uma estrutura de dados

Leia mais

Variáveis Aleatórias Discretas e Distribuição de Probabilidade

Variáveis Aleatórias Discretas e Distribuição de Probabilidade Variáveis Aleatórias Discretas e Distribuição de Probabilidades 2012/02 1 Variáveis Aleatórias Discretas 2 Distribuições de Probabilidade e Funções de Probabilidade 3 4 de uma Variável Aleatória Discreta

Leia mais

Redes Complexas Aula 7

Redes Complexas Aula 7 Redes Complexas Aula 7 Aula retrasada Lei de potência Distribuição Zeta Propriedades Distribuição Zipf Exemplo Wikipedia Aula de hoje Distribuição de Pareto Medindo lei de potência Estimando expoente Exemplos

Leia mais

Cap. 8 - Variáveis Aleatórias

Cap. 8 - Variáveis Aleatórias Variáveis Aleatórias Discretas: A de Poisson e Outras ESQUEMA DO CAPÍTULO 8.1 A DISTRIBUIÇÃO DE POISSON 8.2 A DISTRIBUIÇÃO DE POISSON COMO APROXIMAÇÃO DA DISTRIBUIÇÃO BINOMIAL 8.3 O PROCESSO DE POISSON

Leia mais

Códigos perfeitos e sistemas de Steiner

Códigos perfeitos e sistemas de Steiner CAPÍTULO 7 Códigos perfeitos e sistemas de Steiner Sistemas de Steiner são um caso particular de configurações (ou designs. Neste capítulo pretende-se apenas fazer uma breve introdução aos sistemas de

Leia mais

RELATIVIDADE ESPECIAL

RELATIVIDADE ESPECIAL 1 RELATIVIDADE ESPECIAL AULA N O 4 ( Tensor Eletromagnético Equação de Onda ) Vamos buscar entender o conceito de força, não eatamente sobre a sua origem, mas sim sobre um mais profundo conceito de força.

Leia mais

Dedução Natural para a Lógica de Predicados

Dedução Natural para a Lógica de Predicados Dedução Natural para a Lógica de Predicados Matemática Discreta I Rodrigo Ribeiro Departamento de Ciências Exatas e Aplicadas Universidade de Federal de Ouro Preto 14 de dezembro de 2012 Lógica de Predicados

Leia mais

Enunciados Quantificados Equivalentes

Enunciados Quantificados Equivalentes Enunciados Quantificados Equivalentes Renata de Freitas e Petrucio Viana IME, UFF Junho de 2014 Sumário Equivalência de enunciados quantificados. Aplicação da noção de interpretação para decidir quando

Leia mais

Lógica de Predicados

Lógica de Predicados Lógica de Predicados Conteúdo Correção dos Exercícios (Rosen 47) Prioridade dos Quantificadores (Rosen 38) Ligando Variáveis (Rosen 38) Equivalências lógicas (Rosen 39) Negando expressões com quantificadores

Leia mais

Probabilidade ESQUEMA DO CAPÍTULO. UFMG-ICEx-EST Cap. 2- Probabilidade 1

Probabilidade ESQUEMA DO CAPÍTULO. UFMG-ICEx-EST Cap. 2- Probabilidade 1 Probabilidade ESQUEMA DO CAPÍTULO 2.1 ESPAÇOS AMOSTRAIS E EVENTOS 2.2 INTERPRETAÇÕES DE PROBABILIADE 2.3 REGRAS DE ADIÇÃO 2.4 PROBABILIDADE CONDICIONAL 2.5 REGRAS DA MULTIPLICAÇÃO E DA PROBABILIDADE TOTAL

Leia mais

Variáveis aleatórias

Variáveis aleatórias Variáveis aleatórias Joaquim Neto joaquim.neto@ufjf.edu.br www.ufjf.br/joaquim_neto Departamento de Estatística - ICE Universidade Federal de Juiz de Fora (UFJF) Versão 3.0 Joaquim Neto (UFJF) ICE - UFJF

Leia mais

correspondência entre extensões intermédias de K M e subgrupos de Gal(M, K) chama-se correspondência de Galois.

correspondência entre extensões intermédias de K M e subgrupos de Gal(M, K) chama-se correspondência de Galois. Aula 21 - Álgebra II Estamos finalmente em condições de explicar como é que a teoria de Galois permite substituir problemas sobre polinómios por um problema em princípio mais simples de teoria dos grupos.

Leia mais

EXPRESSÕES RELACIONAIS

EXPRESSÕES RELACIONAIS AULA 7 EXPRESSÕES RELACIONAIS 7.1 Operadores relacionais Uma expressão relacional, ou simplesmente relação, é uma comparação entre dois valores de um mesmo tipo. Esses valores são representados na relação

Leia mais

(versão preliminar) exceto possivelmente para x = a. Dizemos que o limite de f(x) quando x tende para x = a é um numero L, e escrevemos

(versão preliminar) exceto possivelmente para x = a. Dizemos que o limite de f(x) quando x tende para x = a é um numero L, e escrevemos LIMITE DE FUNÇÕES REAIS JOSÉ ANTÔNIO G. MIRANDA versão preinar). Revisão: Limite e Funções Continuas Definição Limite de Seqüências). Dizemos que uma seqüência de números reais n convergente para um número

Leia mais

L.J. Amoreira Dept. Física, UBI Dezembro 2010

L.J. Amoreira Dept. Física, UBI Dezembro 2010 Brevíssima introdução à teoria da informação L.J. Amoreira Dept. Física, UBI Dezembro 2010 Conteúdo 1 Introdução 2 2 Variáveis aleatórias e probabilidade 3 2.1 Experiências aleatórias e variáveis aleatórias............

Leia mais

Lógica Proposicional Parte 2

Lógica Proposicional Parte 2 Lógica Proposicional Parte 2 Como vimos na aula passada, podemos usar os operadores lógicos para combinar afirmações criando, assim, novas afirmações. Com o que vimos, já podemos combinar afirmações conhecidas

Leia mais

Prova Escrita de Matemática A

Prova Escrita de Matemática A EXAME NACIONAL DO ENSINO SECUNDÁRIO Decreto-Lei n.º 74/2004, de 26 de Março Prova Escrita de Matemática A 12.º Ano de Escolaridade Prova 635/1.ª Fase 12 Páginas Duração da Prova: 150 minutos. Tolerância:

Leia mais

Momentos de uma variável aleatória

Momentos de uma variável aleatória Momentos de uma variável aleatória O cálculo de E[X] (valor médio de X) e E[X 2 ] (que intervém na variância), pode ser generalizado pensando em E[X k ] com k IN. Definição: Dada uma v.a. X, chama-se momento

Leia mais

Noções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23

Noções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23 Noções de Simulação Ciências Contábeis - FEA - Noturno 2 o Semestre 2013 MAE0219 (IME-USP) Noções de Simulação 2 o Semestre 2013 1 / 23 Objetivos da Aula Sumário 1 Objetivos da Aula 2 Motivação 3 Geração

Leia mais

Sequências Generalizando um pouco, podemos então dizer que sequências de elementos são grupos com elementos obedecendo a determinada ordem. Obteremos uma sequência diferente quando se altera a ordem. No

Leia mais

Definição: Uma função de uma variável x é uma função polinomial complexa se pudermos escrevê-la na forma n

Definição: Uma função de uma variável x é uma função polinomial complexa se pudermos escrevê-la na forma n POLINÔMIO I 1. DEFINIÇÃO Polinômios de uma variável são expressões que podem ser escritas como soma finita de monômios do tipo : a t k k onde k, a podem ser números reais ou números complexos. Exemplos:

Leia mais

O limite de uma função

O limite de uma função Universidade de Brasília Departamento de Matemática Cálculo 1 O ite de uma função Se s(t) denota a posição de um carro no instante t > 0, então a velocidade instantânea v(t) pode ser obtida calculando-se

Leia mais

A estacionariedade prova-se de maneira semel- hante.

A estacionariedade prova-se de maneira semel- hante. Se por outro lado (U 1, U 2,...) é IID então mostremos que X n U 1 + + U n tem incrementos independentes e estacionários. De facto, dados n > m temos que X n X m U m+1 + + U n. Tome-se quaisquer n 1

Leia mais

Lógica Formal. Matemática Discreta. Prof Marcelo Maraschin de Souza

Lógica Formal. Matemática Discreta. Prof Marcelo Maraschin de Souza Lógica Formal Matemática Discreta Prof Marcelo Maraschin de Souza Exercícios Use lógica proposicional para provar os seguintes argumentos: a) A B C B A C b) A B C B C A c) A B B A C C Exercícios Use lógica

Leia mais

Séries de Fourier. Victor Rios Silva

Séries de Fourier. Victor Rios Silva Séries de Fourier Victor Rios Silva victorrios@live.com Universidade Federal Fluminense (UFF) Instituto de Matemática (IM) Departamento de Matemática Aplicada (GMA) Rua Mário Santos Braga, S/N Valonguinho

Leia mais

Matemática Básica Relações / Funções

Matemática Básica Relações / Funções Matemática Básica Relações / Funções 04 1. Relações (a) Produto cartesiano Dados dois conjuntos A e B, não vazios, denomina-se produto cartesiano de A por B ao conjunto A B cujos elementos são todos os

Leia mais

ESTATÍSTICA. x(s) W Domínio. Contradomínio

ESTATÍSTICA. x(s) W Domínio. Contradomínio Variáveis Aleatórias Variáveis Aleatórias são funções matemáticas que associam números reais aos resultados de um Espaço Amostral. Uma variável quantitativa geralmente agrega mais informação que uma qualitativa.

Leia mais

Chamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω.

Chamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω. PROBABILIDADE 1.0 Conceitos Gerais No caso em que os possíveis resultados de um experimento aleatório podem ser listados (caso discreto), um modelo probabilístico pode ser entendido como a listagem desses

Leia mais

Vamos aos Gritos. Quem são os números quânticos? Os números quânticos são as soluções da equação de Schrondinger que

Vamos aos Gritos. Quem são os números quânticos? Os números quânticos são as soluções da equação de Schrondinger que Disciplina de Física e Química A 10ºAno Ano lectivo 2014/2015 Vamos aos Gritos Números Quânticos!!! Quem são os números quânticos? Os números quânticos são as soluções da equação de Schrondinger que indicam

Leia mais

ALGA I. Representação matricial das aplicações lineares

ALGA I. Representação matricial das aplicações lineares Módulo 6 ALGA I Representação matricial das aplicações lineares Contents 61 Matriz de uma aplicação linear 76 62 Cálculo do núcleo e imagem 77 63 Matriz da composta 78 64 GL(n Pontos de vista passivo e

Leia mais

Hashing: conceitos. Hashing

Hashing: conceitos. Hashing Hashing: conceitos hashing é uma técnica conhecida como espalhamento, mapeamento ou randomização que tenta distribuir dados em posições aleatórias de uma tabela (array) associa cada objeto (de um determinado

Leia mais

Definimos a soma de seqüências fazendo as operações coordenada-a-coordenada:

Definimos a soma de seqüências fazendo as operações coordenada-a-coordenada: Aula 8 polinômios (Anterior: chinês. ) 8.1 séries formais Fixemos um anel A. Denotaremos por A N o conjunto de todas as funções de N = {, 1, 2,... } a valores em A. Em termos mais concretos, cada elemento

Leia mais

Matemática Licenciatura - Semestre Curso: Cálculo Diferencial e Integral I Professor: Robson Sousa. Diferenciabilidade

Matemática Licenciatura - Semestre Curso: Cálculo Diferencial e Integral I Professor: Robson Sousa. Diferenciabilidade Matemática Licenciatura - Semestre 200. Curso: Cálculo Diferencial e Integral I Professor: Robson Sousa Diferenciabilidade Usando o estudo de ites apresentaremos o conceito de derivada de uma função real

Leia mais

Programa. 1 Parte 1 - Conjuntos e Aplicações. 1 Conjuntos. 4 Indução matemática e divisibilidade. 5 Congruências lineares

Programa. 1 Parte 1 - Conjuntos e Aplicações. 1 Conjuntos. 4 Indução matemática e divisibilidade. 5 Congruências lineares Programa Matemática Discreta 2007/08 Jorge Manuel L. André FCT/UNL 1 Parte 1 - Conjuntos e Aplicações 1 Conjuntos 2 Relações Binárias 3 Aplicações 4 Indução matemática e divisibilidade 5 Congruências lineares

Leia mais

da dx = 2 x cm2 /cm A = (5 t + 2) 2 = 25 t t + 4

da dx = 2 x cm2 /cm A = (5 t + 2) 2 = 25 t t + 4 Capítulo 13 Regra da Cadeia 13.1 Motivação A área A de um quadrado cujo lado mede x cm de comprimento é dada por A = x 2. Podemos encontrar a taxa de variação da área em relação à variação do lado: = 2

Leia mais

CÁLCULO I. 1 Derivada de Funções Elementares

CÁLCULO I. 1 Derivada de Funções Elementares CÁLCULO I Prof. Marcos Diniz Prof. Edilson Neri Prof. André Almeida Aula n o : Derivada das Funções Elementares. Regras de Derivação. Objetivos da Aula Apresentar a derivada das funções elementares; Apresentar

Leia mais

Faculdades Integradas Campos Salles

Faculdades Integradas Campos Salles Curso: Administração e Ciências Contábeis Profª Alexandra Garrote Angiolin Disciplina: Matemática II Derivada O conceito de derivada foi introduzido em meados do século XVII em estudos de problemas de

Leia mais

Projecto Delfos: Escola de Matemática Para Jovens 1 FICHA DE TRABALHO

Projecto Delfos: Escola de Matemática Para Jovens 1 FICHA DE TRABALHO Projecto Delfos: Escola de Matemática Para Jovens 1 Uma função, f, é uma aplicação de um conjunto, D, que designamos por domínio, para um conjunto, C, designado por contra-domínio, segundo uma lei, f(x),

Leia mais

Análise de Dados e Simulação

Análise de Dados e Simulação Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco Simulação de Variáveis Aleatórias Contínuas. O método da Transformada Inversa Teorema Seja U U (0,1). Para qualquer

Leia mais

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes. Como devemos descrever um experimento aleatório?

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes. Como devemos descrever um experimento aleatório? Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Funções de Uma Variável Aleatória Funções de Várias Momentos e Estatística Condicional Teorema do Limite Central Processos Estocásticos

Leia mais

1 Lógica de primeira ordem

1 Lógica de primeira ordem 1 Lógica de primeira ordem 1.1 Sintaxe Para definir uma linguagem de primeira ordem é necessário dispor de um alfabeto. Este alfabeto introduz os símbolos à custa dos quais são construídos os termos e

Leia mais

Integrais. ( e 12/ )

Integrais. ( e 12/ ) Integrais (21-04-2009 e 12/19-05-2009) Já estudámos a determinação da derivada de uma função. Revertamos agora o processo de derivação, isto é, suponhamos que nos é dada uma função F e que pretendemos

Leia mais

Fabio Augusto Camargo

Fabio Augusto Camargo Universidade Federal de São Carlos Centro de Ciências Exatas e de Tecnologia Departamento de Matemática Introdução à Topologia Autor: Fabio Augusto Camargo Orientador: Prof. Dr. Márcio de Jesus Soares

Leia mais

Princípios Básicos de Teoria da Informação

Princípios Básicos de Teoria da Informação Princípios Básicos de Teoria da Informação Teorema da Codificação de Fonte Teorema Fundamental de Shannon Até que limite é possível comprimir um conjunto de dados? Qual a maior taxa de transmissão de informação

Leia mais

Processos Estocásticos. Luiz Affonso Guedes

Processos Estocásticos. Luiz Affonso Guedes Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Variáveis Aleatórias Funções de Uma Variável Aleatória Funções de Várias Variáveis Aleatórias Momentos e Estatística Condicional Teorema

Leia mais

Máximos e mínimos em intervalos fechados

Máximos e mínimos em intervalos fechados Universidade de Brasília Departamento de Matemática Cálculo 1 Máximos e mínimos em intervalos fechados No texto em que aprendemos a Regra da Cadeia, fomos confrontados com o seguinte problema: a partir

Leia mais

Variáveis Aleatórias Discretas e Distribuição de Probabilidade

Variáveis Aleatórias Discretas e Distribuição de Probabilidade Variáveis Aleatórias Discretas e Distribuição de Probabilidades - parte IV 2012/02 1 Distribuição Poisson Objetivos Ao final deste capítulo você deve ser capaz de: Ententer suposições para cada uma das

Leia mais

Contando o Infinito: os Números Cardinais

Contando o Infinito: os Números Cardinais Contando o Infinito: os Números Cardinais Sérgio Tadao Martins 4 de junho de 2005 No one will expel us from the paradise that Cantor has created for us David Hilbert 1 Introdução Quantos elementos há no

Leia mais

Sistemas discretos sem memória e codificação da fonte

Sistemas discretos sem memória e codificação da fonte Sistemas discretos sem memória e codificação da fonte Luis Henrique Assumpção Lolis 10 de setembro de 2013 Luis Henrique Assumpção Lolis Sistemas discretos sem memória e codificação da fonte 1 Conteúdo

Leia mais

Números primos e Criptografia

Números primos e Criptografia 1 Universidade de São Paulo/Faculdade de Educação Seminários de Ensino de Matemática (SEMA-FEUSP) Coordenador: Nílson José Machado novembro/2008 Números primos e Criptografia Marisa Ortegoza da Cunha marisa.ortegoza@bol.com.br

Leia mais

Introdução Generalização

Introdução Generalização Cálculo 2 - Capítulo 2.9 - Derivação implícita 1 Capítulo 2.9 - Derivação implícita 2.9.1 - Introdução 2.9.3 - Generalização 2.9.2 - Derivação implícita Veremos agora uma importante aplicação da regra

Leia mais

Processos Estocásticos e Cadeias de Markov Discretas

Processos Estocásticos e Cadeias de Markov Discretas Processos Estocásticos e Cadeias de Markov Discretas Processo Estocástico(I) Definição: Um processo estocástico é uma família de variáveis aleatórias {X(t) t T}, definidas em um espaço de probabilidades,

Leia mais

Cálculo das Probabilidades e Estatística I

Cálculo das Probabilidades e Estatística I Cálculo das Probabilidades e Estatística I Prof a. Juliana Freitas Pires Departamento de Estatística Universidade Federal da Paraíba - UFPB juliana@de.ufpb.br Variáveis Aleatórias Ao descrever um espaço

Leia mais

a = bq + r e 0 r < b.

a = bq + r e 0 r < b. 1 Aritmética dos Inteiros 1.1 Lema da Divisão e o Algoritmo de Euclides Recorde-se que a, o módulo ou valor absoluto de a, designa a se a N a = a se a / N Dados a, b, c Z denotamos por a b : a divide b

Leia mais

Variáveis Aleatórias Contínuas e Distribuição de Probabilidad

Variáveis Aleatórias Contínuas e Distribuição de Probabilidad Variáveis Aleatórias Contínuas e Distribuição de Probabilidades - parte III 23 de Abril de 2012 Introdução Objetivos Ao final deste capítulo você deve ser capaz de: Calcular probabilidades aproximadas

Leia mais

Notas de Aula. tal que, para qualquer ponto (x, y) no plano xy, temos: p XY

Notas de Aula. tal que, para qualquer ponto (x, y) no plano xy, temos: p XY UNIVERSIDDE FEDERL D BHI INSTITUTO DE MTEMÁTIC DEPRTMENTO DE ESTTÍSTIC v. demar de Barros s/n - Campus de Ondina 40170-110 - Salvador B Tel:(071)247-405 Fax 245-764 Mat 224 - Probabilidade II - 2002.2

Leia mais