Estimador de probabilidade máxima de distribuição conjunta, considerando apenas contagens marginais


12

Seja px,y uma distribuição conjunta de duas variáveis ​​categóricas X,Y , com x,y{1,,K} . Digamos que n amostras foram retiradas dessa distribuição, mas recebemos apenas as contagens marginais, ou seja, para j=1,,K :

Sj=i=1nδ(Xi=l),Tj=i=1nδ(Yi=j),

Qual é o estimador de máxima verossimilhança para px,y , dado Sj,Tj ? Isso é conhecido? Computacionalmente viável? Existem outras abordagens razoáveis ​​para esse problema além de ML?


2
As margens realmente não contêm informações * sobre a distribuição conjunta (de fato, este é o objetivo das cópulas). * ou pelo menos quase nenhuma - obviamente as margens contêm pelo menos algumas informações, uma vez que as contagens internas não podem exceder as margens em que ocorrem. Você tem uma distribuição conjunta específica em mente? Por que você usou a maximum-entropytag? Você está buscando uma solução de entropia máxima?
Glen_b -Reinstala Monica 29/11

Eu não estou muito familiarizado com cópulas. Eles também se aplicam ao caso categórico? O que isso significa - que toda distribuição conjunta com as mesmas margens teria a mesma probabilidade? (Marquei entropia máxima porque achei que poderia ser relevante.) #
292 RS RS:

Ainda não temos um modelo de distribuição especificado, portanto, não estamos realmente em posição de calcular P(x|θ) . Existem inúmeras possibilidades aqui. Existem cópulas para o caso categórico ordenado (se não único), mas meu objetivo ao levantá-lo foi motivar por que os marginais não eram muito informativos em geral. Em relação ao caso de contagem categórica, Fisher tratou as margens como não informativas sobre a articulação, daí o teste exato de Fisher-Irwin. Se você quiser máxima entropia, você provavelmente pode obter uma solução entropia máxima, mas eu não sei se ele vai ser muito informativo sobre ...
Glen_b -Reinstate Monica

(ctd) ... estrutura. Nos casos de EM ou ML, acho que primeiro você precisará de algum tipo de modelo, seja multinomial bivariado, hipergeométrico bivariado ou algo com mais estrutura. Veja esta pergunta , onde o autor coloca uma referência em uma resposta. Isso pode ser útil.
Glen_b -Reinstala Monica 29/11

1
Eu quis dizer uma distribuição multinomial bivariada geral. A pergunta fala sobre o caso em que as somas da distribuição são dadas e vemos amostras da distribuição conjunta. Aqui temos as somas da amostra. Eu acho que o problema está bem definido no caso do ML (a solução pode não ser única, mas eu não sei).
RS

Respostas:


4

Esse tipo de problema foi estudado no artigo "Aumento de dados em tabelas de contingência de múltiplas vias com totais marginais fixos", de Dobra et al (2006). Seja denotar os parâmetros do modelo, seja n a tabela de números inteiros não observados para cada par ( x , y ) e seja C ( S , T ) o conjunto de tabelas inteiras cujas contagens marginais sejam iguais ( S , T ) . Então a probabilidade de observar as contagens marginais ( S , T ) é: p (θn(x,y)C(S,T)(S,T)(S,T) onde p ( n | θ ) é a distribuição de amostragem multinomial. Isso define a função de probabilidade para ML, mas a avaliação direta é inviável, exceto para pequenos problemas. A abordagem que eles recomendam é o MCMC, onde você atualiza alternadamente n e θ

p(S,T|θ)=nC(S,T)p(n|θ)
p(n|θ)nθamostrando a partir de uma distribuição da proposta e aceitando a alteração de acordo com a taxa de aceitação Metropolis-Hastings. Isso pode ser adaptado para encontrar um máximo aproximado de usando o Monte Carlo EM. θ

Uma abordagem diferente usaria métodos variacionais para aproximar a soma sobre . As restrições marginais podem ser codificadas como um gráfico de fatores e a inferência sobre θ pode ser realizada usando a Propagação de Expectativas.nθ

Para ver por que esse problema é difícil e não admite uma solução trivial, considere o caso . Tomando S como a linha soma e T como a coluna soma, existem duas tabelas de contagens possíveis: [ 0 1 2 0 ]S=(1,2),T=(2,1)ST Por conseguinte, a função de probabilidade é P(S,T | q)=3 p 12 p 2 21 +6 p 11 p 21 p 22 A MLE para este problema é p x , y = [ 0 1 / 3 2 / 3 0 ]

[0120][1011]
p(S,T|θ)=3p12p212+6p11p21p22
p^x,y=[01/32/30]
o que corresponde a assumir a tabela à esquerda. Por outro lado, a estimativa de que você teria ao assumir a independência é que tem um valor de probabilidade menor.
qx,y=[1/32/3][2/31/3]=[2/91/94/92/9]

Não é possível obter uma solução analítica?
Ben Kuhn

Obrigado! O artigo parece relevante, embora pareça ser da perspectiva bayesiana. E o caso específico em que é de fato a própria distribuição, ou seja, θ = { θ x , y } , para todos os pares ( x , y ) ? Suspeitaria que haveria uma solução analítica neste caso? θθ={θx,y}(x,y)
RS

Eu não suspeitaria que houvesse uma solução analítica. Eu adicionei um exemplo para ilustrar isso.
21415 Tomorrowland

Obrigado. Talvez seja verdade assintoticamente? Então, o condicionamento nos totais de margem é o mesmo que o condicionamento nas distribuições de margem (após a normalização), e a probabilidade de log para cada tabela inteira não observada é proporcional à sua entropia. Talvez algo com AEP então?
RS

1

Como foi apontado por @Glen_b, isso não é especificado adequadamente. Eu não acho que você possa usar a máxima probabilidade, a menos que possa especificar completamente a probabilidade.

Se você estava disposto a assumir a independência, então o problema é bastante simples (aliás, acho que a solução seria a solução de entropia máxima sugerida). Se você não está disposto nem é capaz de impor uma estrutura adicional ao seu problema e ainda deseja algum tipo de aproximação aos valores das células, pode ser que você possa usar os limites da cópula de Fréchet – Hoeffding . Sem suposições adicionais, não acho que você possa ir mais longe.


A probabilidade disso pode ser multinomial. Por que isso é insuficiente?
RS

Pelo que entendi, a probabilidade é uma função dos parâmetros dados os dados. Aqui, você não possui valores para cada célula, apenas os marginais; portanto, você não possui uma única função dos parâmetros que você pode calcular, e muito menos maximizar. Em geral, existem muitas configurações de células compatíveis com as margens, e cada uma daria uma probabilidade diferente.
F. Tusell

1
Yeah, but that's OK. The parameters are p, the data are the marginals. I can still compute the probability of the marginals given p - it's the sum over all the probabilities of cell configurations that give the marginals. That's a single function I can maximize.
R S

1

Edit: This answer is based on an incorrect assumption that likelihood of the marginal counts given px,y is only a function of the marginal probabilities px=ypx,y and py=xpx,y. I'm still thinking about it.

Wrong stuff follows:

As mentioned in a comment, the problem with finding "the" maximum-likelihood estimator for px,y is that it's not unique. For instance, consider the case with binary X,Y and marginals S1=S2=T1=T2=10. The two estimators

p=(120012),p=(14141414)

have the same marginal probabilities px and py in all cases, and hence have equal likelihoods (both of which maximize the likelihood function, as you can verify).


Indeed, no matter what the marginals are (as long as two of them are nonzero in each dimension), the maximum likelihood solution is not unique. I'll prove this for the binary case. Let p=(abcd) be a maximum-likelihood solution. Without loss of generality suppose 0<ad. Then p=(0b+ac+ada) has the same marginals and is thus also a maximum-likelihood solution.


If you want to additionally apply a maximum-entropy constraint, then you do get a unique solution, which as F. Tussell stated is the solution in which X,Y are independent. You can see this as follows:

The entropy of the distribution is H(p)=x,ypx,ylogpx,y; maximizing subject to xpx,y=py and ypx,y=px (equivalently, g(p)=0 where gx(p)=ypx,ypx and gy(p)=xpx,ypy) using Lagrange multipliers gives the equation:

H(p)=kXYλkgk(p)

All the gradients of each gk are 1, so coordinate-wise this works out to

1logpx,y=λx+λypx,y=e1λxλy

plus the original constraints xpx,y=py and ypx,y=px. You can verify that this is satisfied when e1/2λx=px and e1/2λy=py, giving

px,y=pxpy.

For the first example: What is given is the marginal counts, not the marginal probabilities. In the case you've described, the probability of S1=S2=T1=T2=10 for the left p is the probability of [[10,0],[0,10]] which is 220. For the right p, it is 0a10Pr[[a,10a],[10a,a]], which is 10420. Even if there is no unique solution, it doesn't mean we can't point to some solution. Maximum entropy gives a unique solution, but it might not be maximum likelihood.
R S

You've calculated the probabilities incorrectly; for instance, you forgot to include the binomial coefficients. But you're right in that the two matrices give different joint distributions of marginal counts even though they give the same marginal distribution of marginal counts. (Yikes!) I'll think about this more.
Ben Kuhn
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.