Como medir a dispersão nos dados de frequência de palavras?


10

Como quantificar a quantidade de dispersão em um vetor de contagem de palavras? Estou procurando uma estatística que seja alta para o documento A, porque contém muitas palavras diferentes que ocorrem com pouca frequência e baixa para o documento B, porque contém uma palavra (ou algumas palavras) que ocorrem com frequência.

De maneira mais geral, como se mede a dispersão ou "propagação" nos dados nominais?

Existe uma maneira padrão de fazer isso na comunidade de análise de texto?

insira a descrição da imagem aqui

insira a descrição da imagem aqui

Respostas:


10

Para probabilidades (proporções ou ações) somando 1, a família encapsula várias propostas de medidas (índices, coeficientes, qualquer que seja) neste território. portantop a i [ ln ( 1 / p i ) ] bpipia[ln(1/pi)]b

  1. a=0,b=0 retorna o número de palavras distintas observadas, que é a mais simples de se pensar, independentemente de ignorar as diferenças entre as probabilidades. Isso é sempre útil apenas como contexto. Em outros campos, esse pode ser o número de empresas em um setor, o número de espécies observadas em um local e assim por diante. Em geral, vamos chamar isso de número de itens distintos .

  2. 1 - Σ p 2 i 1 / Σ p 2 i k 1 / k Σ p 2 i = K ( 1 / k ) 2 = 1 / k ka=2,b=0 retorna a soma das probabilidades quadradas de Gini-Turing-Simpson-Herfindahl-Hirschman-Greenberg, também conhecida como taxa de repetição ou pureza ou probabilidade de correspondência ou homozigose. É frequentemente relatado como seu complemento ou recíproco, às vezes sob outros nomes, como impureza ou heterozigose. Nesse contexto, é a probabilidade de que duas palavras selecionadas aleatoriamente sejam iguais, e seu complemento a probabilidade de que duas palavras sejam diferentes. O recíproco tem uma interpretação como o número equivalente de categorias igualmente comuns; isso às vezes é chamado de número equivalente. Essa interpretação pode ser vista observando que categorias igualmente comuns (cada probabilidade assim1pi21/pi2k1/k ) implica modo que o recíproco da probabilidade é apenas . Escolher um nome provavelmente trai o campo em que você trabalha. Cada campo honra seus próprios antepassados, mas recomendo que a probabilidade de correspondência seja simples e quase autodefinida.pi2=k(1/k)2=1/kk

  3. H exp ( H ) k H = k ( 1 / k ) ln [ 1 / ( 1 / k ) ] = ln k exp ( H ) = exp ( ln k ) ka=1,b=1 retorna a entropia de Shannon, frequentemente denotada e já sinalizada direta ou indiretamente nas respostas anteriores. O nome entropia ficou aqui, por uma mistura de excelentes e não tão boas razões, até ocasionalmente inveja da física. Observe que é o número equivalente para essa medida, conforme observado em estilo semelhante que categorias igualmente comuns produzem e, portanto, devolve . A entropia tem muitas propriedades esplêndidas; "teoria da informação" é um bom termo de pesquisa.Hexp(H)kH=k(1/k)ln[1/(1/k)]=lnkexp(H)=exp(emk)k

A formulação é encontrada em IJ Good. 1953. Frequências populacionais de espécies e estimativa de parâmetros populacionais. Biometrika 40: 237-264. www.jstor.org/stable/2333344 .

Outras bases para o logaritmo (por exemplo, 10 ou 2) são igualmente possíveis de acordo com o gosto ou precedente ou conveniência, com apenas variações simples implícitas para algumas fórmulas acima.

As redescobertas independentes (ou reinvenções) da segunda medida são múltiplas em várias disciplinas e os nomes acima estão longe de ser uma lista completa.

Amarrar medidas comuns em uma família não é apenas levemente atraente matematicamente. Sublinha que existe uma escolha de medida dependendo dos pesos relativos aplicados a itens escassos e comuns e, portanto, reduz qualquer impressão de adhockery criada por uma pequena profusão de propostas aparentemente arbitrárias. A literatura em alguns campos é enfraquecida por papéis e até livros baseados em alegações tênues de que alguma medida favorecida pelo (s) autor (es) é a melhor medida que todos deveriam usar.

Meus cálculos indicam que os exemplos A e B não são tão diferentes, exceto na primeira medida:

----------------------------------------------------------------------
          |  Shannon H      exp(H)     Simpson   1/Simpson      #items
----------+-----------------------------------------------------------
        A |      0.656       1.927       0.643       1.556          14
        B |      0.684       1.981       0.630       1.588           9 
----------------------------------------------------------------------

(Alguns podem estar interessados ​​em observar que o Simpson nomeado aqui (Edward Hugh Simpson, 1922-) é o mesmo que o homenageado pelo paradoxo do nome Simpson. Ele fez um excelente trabalho, mas não foi o primeiro a descobrir qualquer coisa para a qual ele é nomeado, que por sua vez é o paradoxo de Stigler, que por sua vez ...)


Esta é uma resposta brilhante (e muito mais fácil de seguir do que o artigo de 1953 Good;)). Obrigado!
dB '

7

Não sei se existe uma maneira comum de fazê-lo, mas isso me parece análogo às questões de desigualdade na economia. Se você tratar cada palavra como um indivíduo e sua contagem como comparável à renda, estará interessado em comparar onde o conjunto de palavras está entre os extremos de cada palavra com a mesma contagem (igualdade completa) ou uma palavra com todas as contagens e todo mundo zero. A complicação é que os "zeros" não aparecem, você não pode ter menos de uma contagem de 1 em um saco de palavras, como geralmente definido ...

O coeficiente de Gini de A é 0,18 e de B é 0,43, o que mostra que A é mais "igual" que B.

library(ineq)

A <- c(3, 2, 2, rep(1, 11))
B <- c(9, 2, rep(1, 7))
Gini(A)
Gini(B)

Também estou interessado em outras respostas. Obviamente, a variação antiquada nas contagens também seria um ponto de partida, mas você teria que escalá-la de alguma forma para torná-la comparável para sacos de tamanhos diferentes e, portanto, contagens médias diferentes por palavra.


Boa chamada - o coeficiente de Gini também foi meu primeiro pensamento! Pesquisando no google scholar, no entanto, não consegui encontrar muitos precedentes para usá-lo com dados de texto. Gostaria de saber se a comunidade de recuperação de PNL / texto tem uma medida mais padrão para esse tipo de coisa ...
dB '

Cuidado: pelo meu conde, Gini recebeu o nome de pelo menos três medidas diferentes. A história é defensável em cada caso, mas as pessoas precisam ver a fórmula usada.
Nick Cox

11
Bom ponto @NickCox - Eu estava pensando neste, usado para a desigualdade, que eu acho que é o uso mais comum: ellisp.github.io/blog/2017/08/05/weighted-gini Eu já vi diferentes métodos de estimar / calcular, mas todos com a mesma definição básica, neste contexto. Eu sei aprendizagem de máquina gente usá-lo para algo diferente, mas não vi sua desculpa ...
Peter Ellis

11
@Db' Eu encontrei este papel do uso de Gini em um aplicativo de texto: proceedings.mlr.press/v10/sanasam10a/sanasam10a.pdf (eu prefiro esta resposta ao que aceita, simplesmente como ele faz o melhor trabalho de distinguir o seu A e B)!
Darren Cozinhe

5

Este artigo tem uma revisão das medidas de dispersão padrão usadas pelos linguistas. Eles são listados como medidas de dispersão de palavra única (medem a dispersão de palavras entre seções, páginas etc.), mas podem ser concebivelmente usados ​​como medidas de dispersão de frequência de palavras. Os estatísticos padrão parecem ser:

  1. max-min
  2. desvio padrão
  3. CV
  4. χ2

Os clássicos são:

  1. D=1 1-CVn-1 1
  2. S=N(Eu=1 1nnEu)2n
  3. D2=(registro2N-Eu=1 1nnEuregistro2nEuN)/registro2(n)
  4. D3=1 1-χ24N

NnnEu

O texto também menciona mais duas medidas de dispersão, mas elas se baseiam no posicionamento espacial das palavras, portanto isso é inaplicável ao modelo de saco de palavras.

  • Nota : Alterei a notação original do artigo, para tornar as fórmulas mais consistentes com a notação padrão.

fxEu

vEu

11
Por que as equações da fonte não são copiadas exatamente (não é apenas uma alteração de rótulos nas expressões, mas também uma alteração da expressão, ou pelo menos não uma alteração consistente dos rótulos / variáveis)?
Sextus Empiricus

@NickCox Obrigado por capturar isso, corrigi as fórmulas para incluir apenas quantidades definidas.
31518 Chris Novak

@MartijnWeterings Você está certo que, originalmente, o artigo tratava de métricas de dispersão de palavra única, embora elas pareçam generalizar trivialmente para a frequência da palavra. Apenas no caso de eu incluir essa informação na resposta. Alterei a notação original para torná-las aplicáveis ​​ao modelo de pacote de palavras (substituindo f por N e v_i por n_i). Eu adicionei uma nota para significar isso, mas se você acha que ainda é enganoso, posso fornecer uma justificativa mais longa na resposta.
31518 Chris Novak

4

O primeiro que eu faria é calcular a entropia de Shannon. Você pode usar o pacote de R infotheo, a função entropy(X, method="emp"). Se você o envolver natstobits(H), obterá a entropia dessa fonte em bits.


3

p(p1 1,...,pn)

H¯(p)-pEuempEuemn.

0 0H¯(p)1 1

  • Desigualdade extrema: toda a contagem está em alguma categoria . Nesse caso, temos e isso nos dá .p i = I ( i = k ) ˉ H ( p ) = 0kpEu=Eu(Eu=k)H¯(p)=0 0

  • Igualdade extrema: todas as contagens são iguais em todas as categorias. Nesse caso, temos e isso nos dá .ˉ H ( p ) = 1pEu=1 1/nH¯(p)=1 1

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.