Então, basicamente, há três perguntas envolvidas.
Eu sei que , mas como faço para provar isso?E(Xk)=(nk)⋅p(k2)
Você usa a linearidade da expectativa e algumas reescrições inteligentes. Primeiramente, observe que
Agora, ao considerar a expectativa de , pode-se simplesmente extrair a soma (devido à linearidade) e obter
Ao desenhar a soma, eliminamos todas as dependências possíveis entre subconjuntos de nós. Portanto, qual é a probabilidade de ser uma camarilha? Bem, não importa em que consiste, todas as probabilidades de ponta são iguais. Portanto,XkE(Xk)= ∑ T ⊆ V ,
Xk=∑T⊆V,|T|=k1[T is clique].
XkTTPr[T é clique]=p ( kE(Xk)=∑T⊆V,|T|=kE(1[T is clique])=∑T⊆V,|T|=kPr[T is clique]
TT TE(Xk)=p ( kPr[T is clique]=p(k2), uma vez que todas as arestas deste subgráfico devem estar presentes. E então, o termo interno da soma não depende mais de , deixando-nos com .
TE(Xk)=p(k2)∑T⊆V,|T|=k1=(nk)⋅p(k2)
Como mostrar isso para :E ( X log 2 n ) ≥ 1n→∞E(Xlog2n)≥1
Não tenho muita certeza se isso está correto. Aplicando um limite no coeficiente binomial, obtemos
p-1+logn
E(Xlogn)=(nlogn)⋅p(logn2)≤⎛⎝nep(logn)4logn⎞⎠logn=(ne⋅n(logp)/4logn)logn.
(Observe que limitei aproximadamente por .) No entanto, agora é possível escolher e obter essa , o que faz com que todo o termo vá para para grande . Talvez você esteja perdendo algumas suposições sobre ?
plognp−1+logn2plogn4p=0.001log20.001≈−9.960np