Perguntas com a marcação «it.information-theory»

Questões em Teoria da Informação



3
Qual é o volume de informações?
Esta pergunta foi feita a Jeannette Wing após sua apresentação no PCAST sobre ciência da computação. “Do ponto de vista da física, existe um volume máximo de informações que possamos ter?” (Uma boa pergunta de desafio para a comunidade teórica da ciência da computação, pois acho que ela implora a …




3
Existe alguma conexão entre a norma do diamante e a distância dos estados associados?
Na teoria da informação quântica, a distância entre dois canais quânticos é frequentemente medida usando a norma do diamante. Também existem várias maneiras de medir a distância entre dois estados quânticos, como a distância do traço, a fidelidade, etc. O isomorfismo de Jamiołkowski fornece uma dualidade entre canais quânticos e …

1
Complexidade das informações dos algoritmos de consulta?
A complexidade da informação tem sido uma ferramenta muito útil na complexidade da comunicação, usada principalmente para limitar a complexidade da comunicação de problemas distribuídos. Existe um análogo da complexidade da informação para a complexidade da consulta? Existem muitos paralelos entre a complexidade da consulta e a complexidade da comunicação; …


5
A utilidade das entradas de Renyi?
Muitos de nós estamos familiarizados - ou pelo menos já ouvimos falar - da entropia de Shannon de uma variável aleatória, e todos os relacionados. medidas teóricas da informação, como entropia relativa, informações mútuas etc. Existem algumas outras medidas de entropia que são comumente usadas na ciência da computação e …

4
A eta-equivalência para funções é compatível com a operação seq de Haskell?
Lema: Assumindo a eta-equivalência, temos isso (\x -> ⊥) = ⊥ :: A -> B. Prova: ⊥ = (\x -> ⊥ x)por eta-equivalência e (\x -> ⊥ x) = (\x -> ⊥)por redução no lambda. O relatório Haskell 2010, seção 6.2 especifica a seqfunção por duas equações: seq :: a …




3
Na entropia de uma soma
Eu estou procurando um ligado na entropia da soma de duas variáveis aleatórias discretas independentes X e Y . Naturalmente, H ( X + Y ) ≤ H ( X ) + H ( Y ) ( ∗ ) No entanto, aplicado à soma de n variáveis ​​aleatórias independentes Bernoulli …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.