Canais discretos sem memória e capacidade do canal
|
|
- Carlos Eduardo Ávila Canário
- 6 Há anos
- Visualizações:
Transcrição
1 Canais discretos sem memória e capacidade do canal Luis Henrique Assumpção Lolis 17 de outubro de 2013 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 1
2 Conteúdo 1 Canais discretos sem memória 2 Informação mútua 3 Capacidade do canal Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 2
3 Sumário 1 Canais discretos sem memória 2 Informação mútua 3 Capacidade do canal Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 3
4 Canais discretos sem memória Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 4
5 Canais discretos sem memória Com interesse de entender a transmissão da informação, nós introduzimos a noção matemática do meio de transmissão, ou canal. Consideramos a entrada X e a saída Y, ambas variáveis aleatórias. O sistema é discreto pois X e Y contem um número finito de mensagens, ou palavras código. O sistema é sem memória pois a saída não depende da saída anterior tal qual a sequência de entrada é estatisticamente independente. X {x 0,..., x 1,..., x J 1 } Y{y 0,..., y 1,..., y K 1 } E todas as probabilidades de transição: Probabilidade condicional: p(y k x j ) = P (Y = y k X = x j ) Para todo j k 0 p(y k x j ) 1 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 5
6 A matriz canal, ou matriz de transições, é a matriz contendo todas as probabilidades condicionais de X e Y. Mesma entrada, diferentes saídas Mesma saída, diferentes entradas Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 6
7 Como visto na parte de probabilidade: Probabilidade conjunta p(y k, x j ) = p(y k x j )p(x j ) Probabilidade marginal J 1 p(y k ) = p(y k x j )p(x j ) para k = 0, 1,..., K 1 j=0 Canal simétrico binário Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 7
8 Sumário 1 Canais discretos sem memória 2 Informação mútua 3 Capacidade do canal Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 8
9 Informação mútua A quantidade de informação condicional (ou entropia condicional). Como saber a entropia da entrada H(X ), quando se observa a entropia da saída: J 1 [ ] 1 H(X Y = y k ) = p(x j y k ) log 2 para cada k p(x j y k ) j=0 Essas quantidade é também uma variável aleatória considerando a probabilidade y k. A média de H(X Y = y k ) através do alfabeto Y é dada por: K 1 H(X Y) = p(x j y k )H(X Y = y k )p(y k ) = K k k=0 J [ ] 1 p(x j y k )p(y k ) log 2 = p(x j j y k ) K J [ ] 1 p(x j, y k ) log 2 p(x j y k ) k j Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 9
10 Essa quantidade representa a quantidade de incerteza sobre a entrada uma vez que a saída foi observada. Sendo H(X ) a entropia da entrada, e H(X Y) a entropia depois de observar a saída. A quantidade H(X ) H(X Y) é a quantidade de incerteza que é resolvível pelo canal. Essa quantidade é chamada de informação mútua. Nota intuitiva: O que significa H(X ) H(X Y) = 0? O que significa H(X Y) = 0? Notação da informação mútua: I(X ; Y) = H(X ) H(X Y) I(Y; X ) = H(Y) H(Y X ) Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 10
11 Propriedades (A) A informação mútua é simétrica (prova matemática no livro do Haykin baseado no teorema de Bayes) (B) A informação mútua é sempre não negativa. Significa que não se perde informação na média observando a saída do canal. (C) Aplicando a propriedade estatística que liga a probabilidade conjunta e a probabilidade condicional a informação mútua pode ser escrita da seguinte forma: I(X ; Y) = H(X ) + H(Y) H(X, Y) = 0 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 11
12 Sumário 1 Canais discretos sem memória 2 Informação mútua 3 Capacidade do canal Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 12
13 Capacidade do canal A capacidade do canal é a maior informação mutua que se pode receber para um determinado uso do canal. O canal, contento ruído é que cria incerteza em X dado que se conhece Y, alterando H(X Y). K 1 J 1 I(X ; Y) = k=0 j=0 p(x j, y k ) log 2 [ p(xj, y k ) p(x j )p(y k ) ] = I(Y; X ) Podendo ser traduzida do ponto de vista do canal H(Y X) ou do inverso do canal H(X Y ). K 1 J 1 [ ] p(xj y k ) I(X ; Y) = p(x j, y k ) log 2 p(x k=0 j=0 j ) K 1 J 1 [ ] p(yk x j ) I(X ; Y) = p(x j, y k ) log 2 p(y k ) k=0 j=0 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 13
14 Capacidade do canal Como I(X ; Y) depende não só do canal (p(y k x j )) mas também da probabilidade da fonte p(x j ) a ideia é definir p(x j ) que maximiza o valor de I(X ; Y) A capacidade C é definida como: C = maxi(x ; Y) p(x j ) Otimizar C significa calcular para cada uma das J variáveis p(x j ) que leva I(X ; Y) máximo. C = max = max I(X ; Y) = max {H(Y) H(Y X )} = p(x) p(x) p(x) {H(X ) H(X Y)} max p(x) Para o canal ideal: H(X Y) = H(Y X ) = 0 C = maxh(x ) log m p(x) Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 14
15 Tipos de Canais Canal sem perdas: H(X Y ) = 0 Canal determinístico: p(y k x j ) = 0 ou 1 para todo j, k Canal sem ruído: sem perdas e determinístico: p(y k x j ) = 1 para j = k Canal inútil: I(X Y ) = 0 Canal simétrico: O número de saídas possíveis é o mesmo para todas as entradas e as probabilidades de inversões está igualmente distribuída. Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 15
16 Calculando a Capacidade do Canal 1 a. definição: Canal Simétrico Em um canal simétrico H(Y X) não depende da distribuição de x j Então maximizar I(X Y ) = H(Y ) H(Y X), significa maximizar H(Y ), sendo assim, se X é uniforme, isso gera um Y uniforme que maximiza H(Y ) Assim a capacidade do canal simétrico fica: ( ) M C sym = log M p k log p k k=1 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 16
17 Exemplo do canal simétrico binário C = I(X ; Y) p(x0 )=p(x 1 )=0,5 p(y 0 x 1 ) = p(y 1 x 0 ) = p p(y 0 x 0 ) = p(y 1 x 1 ) = 1 p I(X ; Y) = 1 1 [ ] p(yk x j ) p(x j, y k ) log 2 p(y k ) k=0 j=0 p(x 0 ) = p(x 1 ) = 0, 5 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 17
18 [ p(y0 x 0 ) I(X ; Y) = p(x 0, y 0 ) log 2 [ p(y 0 ) p(y0 x 1 ) p(x 1, y 0 ) log 2 p(y 0 ) ] [ p(y1 x 0 ) + p(x 0, y 1 ) log 2 p(y] 1 ) ] + p(x 1, y 1 ) log 2 [ p(y1 x 1 ) p(y 1 ) p(y 0 ) = p(y 0 x 0 )p(x 0 ) + p(y 0 x 1 )p(x 1 ) = (1 p) (p)1 2 = 1 2 ] + p(y 1 ) = p(y 1 x 0 )p(x 0 ) + p(y 1 x 1 )p(x 1 ) = (1 p) (p)1 2 = 1 2 p(x 0, y 0 ) = p(y 0 x 0 )p(x 0 ) = 1 (1 p) 2 p(x 0, y 1 ) = p(y 1 x 0 )p(x 0 ) = 1 2 (p) p(x 1, y 0 ) = p(y 0 x 1 )p(x 1 ) = 1 2 (p) p(x 1, y 1 ) = p(y 1 x 1 )p(x 1 ) = 1 (1 p) 2 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 18
19 I(X ; Y) = 1 2 (1 p) log 2 [2(1 p)] (p) log 2 [2(p)] (p) log 2 [2(p)] (1 p) log 2 [2(1 p)] C = 1 + p log 2 [p] + (1 p) log 2 [1 p] Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 19
20 C = 1 + p log 2 [p] + (1 p) log 2 [1 p] Comparando com a equação da entropia do código binário C = 1 H(P ) Quando a probabilidade de inversão dos símbolos é de 0% ou de 100%, a capacidade é máxima, e igual a entropia da fonte, ou seja, 1 bit. Quando a probabilidade de inversão é de 50%, a capacidade é zero. Em outras palavras, não tem certeza de nada daquilo que foi enviado, o canal é inútil. C p Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 20
Teoria de distorção da taxa
Teoria de distorção da taxa Luis Henrique Assumpção Lolis 11 de outubro de 2013 Luis Henrique Assumpção Lolis Teoria de distorção da taxa 1 Conteúdo 1 Função discreta de distorção da taxa 2 Propriedades
Leia maiscanal para sinais contínuos
Processos estocásticos, Entropia e capacidade de canal para sinais contínuos 24 de setembro de 2013 Processos estocásticos, Entropia e capacidade de canal para1 sin Conteúdo 1 Probabilidade de sinais contínuos
Leia maisSistemas discretos sem memória e codificação da fonte
Sistemas discretos sem memória e codificação da fonte Luis Henrique Assumpção Lolis 10 de setembro de 2013 Luis Henrique Assumpção Lolis Sistemas discretos sem memória e codificação da fonte 1 Conteúdo
Leia maisProbabilidade, entropia, surpresa, e quantidade de informação 1
Probabilidade, entropia, surpresa, e quantidade de informação 10 de setembro de 2013 Probabilidade, entropia, surpresa, e quantidade de informação 1 Conteúdo 1 Revisão de Probabilidade Teorema de Bayes
Leia maisTeoria da Informação
Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Leia maisCódigos convolucionais
Códigos convolucionais Luis Henrique Assumpção Lolis 29 de novembro de 2013 Luis Henrique Assumpção Lolis Códigos convolucionais 1 Conteúdo 1 Introdução e definição 2 Diagrama de árvores, de treliça e
Leia maisCompressão e Codificação de Dados. Primeiro Exame e Segundo Teste
Compressão e Codificação de Dados. Primeiro Exame e Segundo Teste Mestrado em Engenharia Electrotécnica e de Computadores, IST 7 de Janeiro de 2012 Nome: Número: NOTAS: Exame (3 horas): tudo. Segundo teste
Leia maisTE111 Comunicação Digital
TE111 Comunicação Digital Introdução à Teoria de Informação e Codificação de Fonte 15 de outubro de 2018 Introdução à Teoria de Informação Em 1948, Claude Shannon publicou o trabalho A Mathematical Theory
Leia maisEntropia, Entropia Relativa
Entropia, Entropia Relativa e Informação Mútua Miguel Barão (mjsb@di.uevora.pt) Departamento de Informática Universidade de Évora 13 de Março de 2003 1 Introdução Suponhamos que uma fonte gera símbolos
Leia maisCOM29008 LISTA DE EXERCÍCIOS #
INSTITUTO FEDERAL DE SANTA CATARINA CAMPUS SÃO JOSÉ COORDENADORIA DE ÁREA DE TELECOMUNICAÇÕES ENGENHARIA DE TELECOMUNICAÇÕES COM98 LISTA DE EXERCÍCIOS # 8. Exercícios. [, 9.5] Um processo estocástico gaussiano,
Leia maisTeoria da Probabilidade
Teoria da Probabilidade Luis Henrique Assumpção Lolis 14 de fevereiro de 2014 Luis Henrique Assumpção Lolis Teoria da Probabilidade 1 Conteúdo 1 O Experimento Aleatório 2 Espaço de amostras 3 Álgebra dos
Leia maisNoções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23
Noções de Simulação Ciências Contábeis - FEA - Noturno 2 o Semestre 2013 MAE0219 (IME-USP) Noções de Simulação 2 o Semestre 2013 1 / 23 Objetivos da Aula Sumário 1 Objetivos da Aula 2 Motivação 3 Geração
Leia maisIntrodução aos Processos Estocásticos em Engenharia Elétrica 1
Introdução aos Processos Estocásticos em Engenharia Elétrica 10 de março de 2014 Introdução aos Processos Estocásticos em Engenharia Elétrica 1 Conteúdo 1 Modelos Matemáticos - Determinísticos e Probabiĺısticos
Leia maisTipos de códigos de fonte
Tipos de códigos de fonte Luis Henrique Assumpção Lolis 13 de setembro de 2013 Luis Henrique Assumpção Lolis Tipos de códigos de fonte 1 Conteúdo 1 Código de prefixo 2 Código de Fano 3 Código de Huffman
Leia maisTeoria da Informação ( ) Exame de Recurso ( ) Resolução. (1 p), (1 p), p = H(0,4;0,4;0,2) = 1,522
Teoria da Informação (4-) Exame de ecurso (-7-). Canais discretos sem memória e p =,: esolução X -p p p -p Y W ε ε ε -ε -ε -ε Z Canal A Canal B Vamos representar P(X = i) por P(X i ), etc. PY ( ) = P(
Leia mais2 Teoria da Informação
2 Teoria da Informação Neste capítulo apresentamos alguns conceitos básicos sobre Teoria da Informação que utilizaremos durante este trabalho. 2.1 Alfabeto, texto, letras e caracteres Um alfabeto Σ = (σ
Leia maisL.J. Amoreira UBI. Dezembro 2010
Definição de informação L.J. Amoreira UBI Dezembro 2010 Entropia (ou incerteza [ou ignorância]) A incerteza associada a uma variável aleatória X que pode tomar os valores x 1, x 2,..., x n com probabilidades
Leia maisTEORIA DE INFORMAÇÃO UM NANOCURSO
TEORIA DE INFORMAÇÃO UM NANOCURSO Max H. M. Costa Unicamp Set. 2016 Centenário de Shannon - SBrT - Santarém Dedicação: a memória de Claude Shannon Claude Shannon 1916-2001 matemático, engenheiro eletrônico,
Leia maisCódigos de bloco. Luis Henrique Assumpção Lolis. 1 de novembro de Luis Henrique Assumpção Lolis Códigos de bloco 1
Códigos de bloco Luis Henrique Assumpção Lolis 1 de novembro de 2013 Luis Henrique Assumpção Lolis Códigos de bloco 1 Conteúdo 1 Códigos de bloco lineares 2 Códigos sistemáticos 3 Síndrome 4 Distância
Leia maissobre o grafo probabilístico completo de um sistema de regulação gênica
Um algoritmo eficiente para o crescimento de redes sobre o grafo probabilístico completo de um sistema de regulação gênica Leandro de Araújo Lima Orientador: Junior Barrera Departamento de Ciência da Computação
Leia maisCódigos de controle de erros: introdução
Códigos de controle de erros: introdução Luis Henrique Assumpção Lolis 11 de outubro de 2013 Luis Henrique Assumpção Lolis Códigos de controle de erros: introdução 1 Conteúdo 1 Introdução 2 Canais discretos
Leia maisuniversidade federal de pernambuco departamento de estatística
soluções do o exercício escolar Teoria da Informação set./207 a) Qual a variável aleatória de maior incerteza? Surpreendentemente, há uma maior incerteza sobre a variável aleatória X, é definida apenas
Leia maisSegundo Exame e Repescagem de Testes. Mestrado em Engenharia Electrotécnica e de Computadores, IST 25 de Janeiro de 2014
Compressão e Codificação de Dados Segundo Exame e Repescagem de Testes Mestrado em Engenharia Electrotécnica e de Computadores, IST 25 de Janeiro de 201 Nome: Número: NOTAS: 1. Exame (3 horas): tudo. Primeiro
Leia mais2.3 Operações sobre uma variável aleatória - Esperança matemática
matemática 58 atingir a mosca dado que ele atingiu o alvo. Exercício 2.33. [3] Duas caixas tem bolas vermelhas, verdes e azuis dentro; a quantidade de cada uma é dada a seguir. Caixa 01-5 vermelhas; 35
Leia maisLuis Henrique Assumpção Lolis 27 de agosto de 2013
http://www.eletrica.ufpr.br/~luis.lolis TE248 - Teoria da Informação e Codificação Luis Henrique Assumpção Lolis 27 de agosto de 2013 Conteúdo 1 Conteúdo da Disciplina 2 Origem e Aplicação 3 Bibliografia
Leia maisVetor de Variáveis Aleatórias
Vetor de Variáveis Aleatórias Luis Henrique Assumpção Lolis 25 de junho de 2013 Luis Henrique Assumpção Lolis Vetor de Variáveis Aleatórias 1 Conteúdo 1 Vetor de Variáveis Aleatórias 2 Função de Várias
Leia maisFaculdade de Engenharia da Computação
Faculdade de Engenharia da Computação Disciplina Segurança Aplicada a Computação Teoria da Informação conceito de Entropia, Difusão, Criptossistemas Aleatórios, Redundância Relativa, Distância de Unicidade
Leia maisMomentos: Esperança e Variância. Introdução
Momentos: Esperança e Variância. Introdução Em uma relação determinística pode-se ter a seguinte relação: " + " = 0 Assim, m =, é a declividade e a e b são parâmetros. Sabendo os valores dos parâmetros
Leia maisDescodificação iterativa
Sílvio A. Abrantes DEEC/FEUP 26 Descodificação iterativa 2 Descodificação de códigos LDPC por transferência de mensagens em grafos de Tanner Introdução Diagrama de blocos de um sistema genérico de codificação
Leia mais4 TEORIA MATEMÁTICA DA COMUNICAÇÃO DE SHANNON
4 TEORIA MATEMÁTICA DA COMUNICAÇÃO DE SHANNON A Teoria Matemática da Comunicação, ou Teoria da Comunicação de Shannon foi proposta por Claude Shannon no final da década de 1940 como forma de sistematizar
Leia maisProcessos Estocásticos e Cadeias de Markov Discretas
Processos Estocásticos e Cadeias de Markov Discretas Processo Estocástico(I) Definição: Um processo estocástico é uma família de variáveis aleatórias {X(t) t T}, definidas em um espaço de probabilidades,
Leia maisTransmissão Digital em Banda Base
Transmissão Digital em Banda Base Luis Henrique Assumpção Lolis 27 de maio de 2014 Luis Henrique Assumpção Lolis Transmissão Digital em Banda Base 1 Conteúdo 1 Introdução 2 Análise de erro de bits 3 Interferência
Leia maisFundamentos da Teoria da Probabilidade
Fundamentos da Teoria da Probabilidade Edmar José do Nascimento (Princípios de Comunicações) http://www.univasf.edu.br/ edmar.nascimento Universidade Federal do Vale do São Francisco Sinais Aleatórios
Leia maisUFPE, 2-o semestre de ET-622 Elementos de Estatística para o curso de Biblioteconomia Professor André Toom. Ementa
[1] Avisos: UFPE, 2-o semestre de 2011. ET-622 Elementos de Estatística para o curso de Biblioteconomia Professor André Toom Ementa Notações: v.a. - variável aleatória, E - esperança matemática, o mesmo
Leia maisTeoria da Informação ( ) Exame de Recurso ( ) Resolução ( ) ( ) 2log2. log log
Teoria da Informação (-6) Exame de Recurso (4-7-6) Resolução. Função densidade de probabilidade das amostras de U é constante: b a b pu ( ) a b a pu ( ) = b a. a) h ( U ) = p ( u ) log du = log( b a )
Leia maisTE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina Notes. Processos Estocásticos em Engenharia Conteúdo Notes.
TE802 Processos Estocásticos em Engenharia Conceitos Básicos de Teoria de Probabilidade 7 de março de 2016 Informação sobre a disciplina Terças e Quintas feiras das 09:30 às 11:20 horas Professor: Evelio
Leia maisTE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina. TE802 Conceitos Básicos de Teoria de Probabilidade. Evelio M. G.
TE802 Processos Estocásticos em Engenharia Conceitos Básicos de Teoria de Probabilidade 23 de agosto de 2017 Informação sobre a disciplina Segundas e Quartas feiras das 09:30 às 11:20 horas Professor:
Leia maisPar de Variáveis Aleatórias
Par de Variáveis Aleatórias Luis Henrique Assumpção Lolis 7 de abril de 2014 Luis Henrique Assumpção Lolis Par de Variáveis Aleatórias 1 Conteúdo 1 Introdução 2 Par de Variáveis Aleatórias Discretas 3
Leia maisProbabilidade. Objetivos de Aprendizagem. UFMG-ICEx-EST. Cap. 2 - Probabilidade Espaços Amostrais e Eventos. 2.1.
2 ESQUEMA DO CAPÍTULO 2.1 ESPAÇOS AMOSTRAIS E EVENTOS 2.2 INTERPRETAÇÕES E AXIOMAS DE PROBABILIADE 2.3 REGRAS DE ADIÇÃO 2.4 PROBABILIDADE CONDICIONAL 2.5 REGRAS DA MULTIPLICAÇÃO E DA PROBABILIDADE TOTAL
Leia maisTeoria das Filas aplicadas a Sistemas Computacionais. Aula 08
Teoria das Filas aplicadas a Sistemas Computacionais Aula 08 Universidade Federal do Espírito Santo - Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM Teoria das Filas
Leia maisFUNDAMENTOS MATEMÁTICOS
1 FUNDAMENTOS MATEMÁTICOS SCC5908 Introdução ao Processamento de Língua Natural Thiago A. S. Pardo POR QUE ESTUDAR PROBABILIDADE? Probabilidade e língua??? 2 1 POR QUE ESTUDAR PROBABILIDADE? Probabilidade
Leia maisProblemas de Fundamentos de Telecomunicações 1ª Parte: Codificação de Fonte e Codificação de Canal
Problemas de Fundamentos de Telecomunicações 1ª Parte: Codificação de Fonte e Codificação de Canal 1. Considere uma fonte com um alfabeto de 4 mensagens, de probabilidades 1/2, 1/4, 1/8 e 1/8. a) Qual
Leia mais2.4 Esperança e distribuição condicionais
2.4. ESPERANÇA E DISTRIBUIÇÃO CONDICIONAIS 35 2.4 Esperança e distribuição condicionais Estendemos aqui o conceito de probabilidade condicional em (2.8) para obter a distribuição condicional e, posteriormente,
Leia maisEstatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aula passada Função Distribuição Condicional Calculando Probabilidades condicionando Esperança Condicional Aula de hoje Análise de Comandos de Programação
Leia maisEstatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aulas passadas Espaço Amostral Álgebra de Eventos Axiomas de Probabilidade Análise Combinatória Aula de hoje Probabilidade Condicional Independência de Eventos
Leia maisPropriedades da Inversão de Matrizes
Propriedades da Inversão de Matrizes Prof. Márcio Nascimento Universidade Estadual Vale do Acaraú Centro de Ciências Exatas e Tecnologia Curso de Licenciatura em Matemática Disciplina: Álgebra Matricial
Leia maisFUNDAMENTOS MATEMÁTICOS
FUNDAMENTOS MATEMÁTICOS 1 SCC5908 Introdução ao Processamento de Língua Natural Thiago A. S. Pardo POR QUE ESTUDAR PROBABILIDADE Probabilidade e língua Probabilidade dos fenômenos lingüísticos Descrição,
Leia maisSEGUNDO Massey [1] a história da criptologia mostra
REVISTA DE TECNOLOGIA DA INFORMAÇÃO E COMUNICAÇÃO, NÚMERO 1, OUTUBRO 2011 14 Aspectos de Segurança de Cifras de Chave-Secreta Valdemar C. da Rocha Jr. Grupo de Pesquisa em Comunicações, Departamento de
Leia maisFUNDAMENTOS MATEMÁTICOS
FUNDAMENTOS MATEMÁTICOS SCC5869 Tópicos em Processamento de Língua Natural Thiago A. S. Pardo POR QUE ESTUDAR PROBABILIDADE Probabilidade e língua Probabilidade dos fenômenos lingüísticos Descrição Caracterização
Leia maisFundamentos da Teoria de Informação
Fundamentos da Teoria de Informação 1 Introdução... 2 2 Informação... 3 3 Entropia... 6 3.1 Entropia Exemplos... 7 3.2 Entropia Conjunta e Entropia Condicional... 12 3.3 Entropia e Codificação de Fonte...
Leia maisEstatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aula passada Probabilidade Condicional Independência de Eventos Teorema da Probabilidade Total Lei de Bayes Aula de hoje Exemplo Lei de Bayes Variáveis Aleatórias
Leia maisAULA 8 - Funções de variáveis aleatórias
AULA 8 - Funções de variáveis aleatórias Susan Schommer Introdução à Estatística Econômica - IE/UFRJ Funções de variáveis aleatórias Dada uma variável aleatória X, nós podemos gerar outras variáveis aleatórias
Leia mais1.1 Exemplo da diferença da média da população para a média amostral.
1 Estatística e Probabilidades Inferência Estatística consiste na generalização das informações a respeito de uma amostra, para a sua população. A Probabilidade considera modelos para estimar informações
Leia maisTeoria de Filas Aula 10
Aula Passada Comentários sobre a prova Teoria de Filas Aula 10 Introdução a processos estocásticos Introdução a Cadeias de Markov Aula de Hoje Cadeias de Markov de tempo discreto (DTMC) 1 Recordando...
Leia maisProbabilidade ESQUEMA DO CAPÍTULO. UFMG-ICEx-EST Cap. 2- Probabilidade 1
Probabilidade ESQUEMA DO CAPÍTULO 2.1 ESPAÇOS AMOSTRAIS E EVENTOS 2.2 INTERPRETAÇÕES DE PROBABILIADE 2.3 REGRAS DE ADIÇÃO 2.4 PROBABILIDADE CONDICIONAL 2.5 REGRAS DA MULTIPLICAÇÃO E DA PROBABILIDADE TOTAL
Leia maisChamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω.
PROBABILIDADE 1.0 Conceitos Gerais No caso em que os possíveis resultados de um experimento aleatório podem ser listados (caso discreto), um modelo probabilístico pode ser entendido como a listagem desses
Leia maisUniversidade de Pernambuco Escola Politécnica de Pernambuco
Universidade de Pernambuco Escola Politécnica de Pernambuco TV Analógica e Digital Codificação de Fonte Prof. Márcio Lima E-mail:marcio.lima@poli.br 12.06.2014 Introdução A principal função de um sistema
Leia maisEstatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aula passada Probabilidade Análise Combinatória Independência de eventos Aula de hoje Independência de eventos Prob. Condicional Teorema da Probabilidade
Leia maisMAE 116 Distribuição Normal FEA - 2º Semestre de 2018
MAE 116 Distribuição Normal FEA - 2º Semestre de 2018 1 Introdução Até aqui estudamos variáveis aleatórias discretas que são caracterizadas por ter uma distribuição de probabilidade dada por uma tabela
Leia maisRedes Bayesianas. Prof. Júlio Cesar Nievola PPGIa Escola Politécnica PUCPR
Redes Bayesianas Prof. Júlio Cesar Nievola PPGIa Escola Politécnica PUCPR Raciocínio com Incerteza Incerteza: qualidade ou estado de não ser conhecido com certeza Fontes de incerteza: Ignorância: qual
Leia maisProcessos Estocásticos
Processos Estocásticos Luis Henrique Assumpção Lolis 26 de maio de 2014 Luis Henrique Assumpção Lolis Processos Estocásticos 1 Conteúdo 1 Introdução 2 Definição 3 Especificando um processo aleatório 4
Leia maisAvaliação e Desempenho Aula 18
Avaliação e Desempenho Aula 18 Aula passada Fila com buffer finito Fila com buffer infinito Medidas de interesse: vazão, número médio de clientes na fila, taxa de perda. Aula de hoje Parâmetros de uma
Leia maisSUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 CAPÍTULO 1 PROCESSOS ALEATÓRIOS 49
SUMÁRIO FUNDAMENTOS E VISÃO GERAL 19 1. O processo de comunicação 19 2. Principais recursos de comunicação 21 3. Fontes de informação 21 4. Redes de comunicação 27 5. Canais de comunicação 33 6. Processo
Leia maisCap. 6: Métodos para alinhamento de múltiplas seqüências
Cap. 6: Métodos para alinhamento de múltiplas seqüências Organização O que é um alinhamento múltiplo Escores para alinhamentos múltiplos Relação entre alinhamento múltiplo e análise filogenética Métodos
Leia maisRicardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Geração de Números Aleatórios Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 61 Simulando de Distribuições Discretas Assume-se que um
Leia maisPrincípios Básicos de Teoria da Informação
Princípios Básicos de Teoria da Informação Teorema da Codificação de Fonte Teorema Fundamental de Shannon Até que limite é possível comprimir um conjunto de dados? Qual a maior taxa de transmissão de informação
Leia maisAULA 9 - Variável aleatória bidimensional discreta
AULA 9 - Variável aleatória bidimensional discreta Susan Schommer Introdução à Estatística Econômica - IE/UFRJ Variáveis aleatórias bidimensionais Definition Sejam ɛ um experimento e S um espaço amostral
Leia maisModelagem e Análise de Sistemas de Computação Aula 19
Modelagem e Análise de Sistemas de Computação Aula 19 Aula passada Intro a simulação Gerando números pseudo-aleatórios Aula de hoje Lei dos grandes números Calculando integrais Gerando outras distribuições
Leia maisINTRODUÇÃO À TEORIA DA INFORMAÇÃO
INTRODUÇÃO À TEORIA DA INFORMAÇÃO SISTEMA DE TRANSMISSÃO DIGITAL Oscodificadores defonte possuem a finalidade de casar a fonte de dados com o sistema levando em consideração a estatística de acontecimento
Leia maisGBC083 - Segurança da Informação Aula 2 - Sigilo Perfeito. 28 de Março de 2016
GBC083 - Segurança da Informação Aula 2 - Sigilo Perfeito 28 de Março de 2016 Encriptação segura Meta: Independentemente de qualquer informação prévia que o atacante tem sobre o texto em claro, o texto
Leia maisUm Passeio pela Teoria da Informação
WECIQ 2006 - Mini-curso 3 Um Passeio pela Teoria da Informação (Clássica e Quântica) Carlile Lavor 1 1 Instituto de Matemática, Estatística e Computação Científica UNICAMP clavor@ime.unicamp.br 1. Introdução
Leia mais3 Expressões de BER para as diferentes modulações
TE248 - Teoria da Informação e Codificação - 2013 Luis Henrique A. Lolis Trabalho MATLAB - Escolha de modulação e código para uma comunicação sem fio 1 Objetivos Considerando um projeto de comubnicação
Leia maisFundamentos de Telecomunicações
Fundamentos de Telecomunicações LEEC_FT 4,5&6: Teoria da Informação Codificação de Fonte Professor Victor Barroso vab@isr.ist.utl.t Lição 4 Informação e Entroia Introdução Incerteza, robabilidade e informação
Leia maisProbabilidade II. Departamento de Estatística. Universidade Federal da Paraíba
Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Lei dos Grandes Números e Teorema Central do Limite 02/14 1 / 9 Lei dos Grandes Números Lei
Leia maisProcessos Aleatórios e Ruído
Processos Aleatórios e Ruído Luis Henrique Assumpção Lolis 11 de abril de 2014 Luis Henrique Assumpção Lolis Processos Aleatórios e Ruído 1 Conteúdo 1 O Experimento Aleatório / Espaço de Amostras 2 Algebra
Leia maisEstatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aulas passadas Espaço Amostral Álgebra de Eventos Axiomas de Probabilidade Análise Aula de hoje Probabilidade Condicional Independência de Eventos Teorema
Leia maisProbabilidade II. Departamento de Estatística. Universidade Federal da Paraíba
Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Variáveis Aleatórias Bidimensionais 11/13 1 / 1 Variáveis Bidimensionais Até o momento, consideramos
Leia maisCOMUNICAÇÃO DIGITAL INTRODUÇÃO À TEORIA DE INFORMAÇÃO
COMUNICAÇÃO DIGITAL INTRODUÇÃO À TEORIA DE INFORMAÇÃO Evelio M. G. Fernández - 2011 Introdução à Teoria de Informação Em 1948, Claude Shannon publicou o trabalho A A Mathematical Theory of Communications.
Leia maisTeoria da Informação
Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Leia maisESTATÍSTICA. x(s) W Domínio. Contradomínio
Variáveis Aleatórias Variáveis Aleatórias são funções matemáticas que associam números reais aos resultados de um Espaço Amostral. Uma variável quantitativa geralmente agrega mais informação que uma qualitativa.
Leia maisEstatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aula passada Exemplos Análise Combinatória Probabilidade Condicional Independência de Eventos Teorema da Probabilidade Total Lei de Bayes Aula de hoje Exemplo
Leia maisProbabilidade. Definição de informação
Probabilidade. Definição de informação L.J. Amoreira UBI Novembro 2010 A distribuição binomial Repete-se n vezes uma experiência na qual um dado acontecimento A tem uma probabilidade de ocorrência p. Qual
Leia maisDisciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 05 / Detecção Binária Baseada em
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 05 / Detecção Binária Baseada em Múltiplas Observações e Detecção com Múltiplas Hipóteses Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa
Leia mais3. Probabilidade P(A) =
7 3. Probabilidade Probabilidade é uma medida numérica da plausibilidade de que um evento ocorrerá. Assim, as probabilidades podem ser usadas como medidas do grau de incerteza e podem ser expressas de
Leia maisProbabilidade II. Departamento de Estatística. Universidade Federal da Paraíba
Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Distribuições Condicionais 11/13 1 / 19 Em estudo feito em sala perguntamos aos alunos qual
Leia maisConteúdo Teórico: 04 Esperança
ACH2053 Introdução à Estatística Conteúdo Teórico: 04 Esperança Marcelo de Souza Lauretto Sistemas de Informação EACH www.each.usp.br/lauretto Referência: Morris DeGroot, Mark Schervish. Probability and
Leia maisIntrodução a Criptologia
Introdução a Criptologia Luis Henrique Assumpção Lolis 8 de março de 2013 Luis Henrique Assumpção Lolis Introdução a Criptologia 1 Conteúdo 1 Criptografia e criptanálise 2 Esquemático geral de sistemas
Leia maisTeoria da Computação
Introdução Março - 2009 1 Noções e Terminologia Matemática Conjuntos Um conjunto é um grupo de objetos, chamados elementos ou membros, representado como uma unidade. O conjunto { 3, 41, 57} possui os elementos
Leia maisAula 9. Ivan Sendin. 12 de setembro de FACOM - Universidade Federal de Uberlândia SEG-9.
Segurança da Informação Aula 9 FACOM - Universidade Federal de Uberlândia ivansendin@yahoo.com,sendin@ufu.br 12 de setembro de 2018 Alice,Bob, Eva, Criptossistemas,... Ciptoanalise texto cifrado texto
Leia maisCódigos de blocos lineares. Outubro de 2017
Códigos de blocos lineares Outubro de 2017 Vamos introduzir alguns conceitos sobre códigos de blocos lineares. Definições: Deve-se assumir que a informação saída da fonte de informação é da forma binária
Leia maisModelagem e Análise de Sistemas - COS767
Modelagem e Análise de Sistemas - COS767 Aula de hoje Introdução à simulação Geração de números aleatórios Lei dos Grandes Números Geração de variáveis aleatórias: método da transformada inversa Simulação
Leia maisTransmissão de impulsos em banda-base
Transmissão de impulsos em banda-base Transmissão de impulsos através de um canal com ruído aditivo. Probabilidades de erro com detecção no ponto central Detecção de sinais binários em ruído gaussiano
Leia maisAula 14. Aula de hoje. Aula passada
Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema
Leia maisAvaliação de Desempenho
Avaliação de Desempenho Aula passada Métricas, Técnicas, Erros Aula de hoje Conceitos importantes de probabilidade Como fazer a análise de desempenho? Modelos Matemáticos Modelos de Simulação Como fazer
Leia maisTE060 Princípios de Comunicação. Probabilidade. Probabilidade Condicional. Notes. Notes. Notes
TE060 Princípios de Comunicação Efeito do Ruído em Sistemas com Modulação de Onda Contínua 5 de novembro de 2013 Probabilidade Uma medida de probabilidade P é uma função que associa um número não negativo
Leia maisSexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo
Sexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo Antônio Carlos Roque da Silva Filho e Cristiano R. F. Granzotti 26 de junho de 2017 Os exercícios desta lista devem ser resolvidos
Leia maisAGA Análise de Dados em Astronomia I. 2. Probabilidades - parte 1
1 / 14 AGA 0505- Análise de Dados em Astronomia I 2. Probabilidades - parte 1 Laerte Sodré Jr. 1o. semestre, 2018 2 / 14 o que são probabilidade: medida da plausibilidade de uma proposição quando não se
Leia mais