Definição e Convergência dos Mínimos Quadrados Iterativamente Retrabalhados


16

Eu tenho usado IRLS (mínimos quadrados ponderados) iterativamente para minimizar as funções do seguinte formulário,

J(m)=i=1Nρ(|xim|)

onde é o número de instâncias de x_i \ in \ mathbb {R} , m \ in \ mathbb {R} é a estimativa robusta que eu quero e \ rho é uma função de penalidade robusta adequada. Digamos que seja convexo (embora não necessariamente estritamente) e diferenciável por enquanto. Um bom exemplo de tal um \ rho é a função de perda Huber .NxiRmRρρ

O que tenho feito é diferenciar J(m) em relação a m (e manipular) para obter,

dJdm=i=1Nρ(|xim|)|xim|(xim)

e resolvendo iterativamente, definindo-o igual a 0 e fixando pesos na iteração k para wi(k)=ρ(|xim(k)|)|xim(k)| (observe que a singularidade percebida em xi=m(k) é realmente uma singularidade removível em todos os ρ eu possa me interessar). Então eu obtenho,

i=1Nwi(k)(xim(k+1))=0

e resolvo obter, m(k+1)=i=1Nwi(k)xii=1Nwi(k) .

Repito esse algoritmo de ponto fixo até "convergência". Observarei que, se você chegar a um ponto fixo, é ótimo, pois sua derivada é 0 e é uma função convexa.

Eu tenho duas perguntas sobre este procedimento:

  1. Esse é o algoritmo IRLS padrão? Depois de ler vários artigos sobre o tópico (e eles foram muito dispersos e vagos sobre o que é o IRLS), essa é a definição mais consistente do algoritmo que posso encontrar. Posso postar os papéis se as pessoas quiserem, mas na verdade não queria influenciar ninguém aqui. Obviamente, você pode generalizar essa técnica básica para muitos outros tipos de problemas envolvendo o vetor xi e argumentos diferentes de |xim(k)|, fornecer o argumento é uma norma de uma função afim de seus parâmetros. Qualquer ajuda ou insight seria ótimo nisso.
  2. A convergência parece funcionar na prática, mas tenho algumas preocupações. Ainda estou para ver uma prova disso. Depois de algumas simples Matlab simulações vejo que uma iteração deste é não um mapeamento contração (I gerou dois casos aleatórios de e computação e viu que isso ocasionalmente é maior que 1). Além disso, o mapeamento definido por várias iterações consecutivas não é estritamente um mapeamento de contração, mas a probabilidade da constante de Lipschitz estar acima de 1 fica muito baixa. Então, existe a noção de um mapeamento de contração em probabilidade ? Qual é o mecanismo que eu usaria para provar que isso converge? Isso converge mesmo?m|m1(k+1)m2(k+1)||m1(k)m2(k)|

Qualquer orientação é útil.

Edit: Gosto do artigo sobre o IRLS para recuperação esparsa / sensoriamento por Daubechies et al. 2008 "Minimização de mínimos quadrados reponderada iterativamente para recuperação esparsa" no arXiv. Mas parece focar principalmente pesos para problemas não-convexos. Meu caso é consideravelmente mais simples.


Observando a página wiki do IRWLS , luto para a diferença entre o procedimento que você descreve e o IRWLS (eles apenas usam como sua função específica). Você pode explicar de que maneira você acha que o algoritmo que você propõe é diferente do IRWLS? ρ|yixxiββ|2ρ
User603

Eu nunca afirmei que era diferente e, se eu implicasse, não pretendia.
Chris A.

Respostas:


10

Quanto à sua primeira pergunta, deve-se definir "padrão" ou reconhecer que um "modelo canônico" foi gradualmente estabelecido. Como um comentário indicado, parece pelo menos que a maneira como você usa o IRWLS é bastante padrão.

Quanto à sua segunda pergunta, o "mapeamento de contração em probabilidade" pode estar ligado (embora informalmente) à convergência de "algoritmos estocásticos recursivos". Pelo que li, há uma enorme literatura sobre o assunto, principalmente em Engenharia. Em Economia, usamos um pouco disso, especialmente os trabalhos seminais de Lennart Ljung - o primeiro artigo foi Ljung (1977) - que mostrou que a convergência (ou não) de um algoritmo estocástico recursivo pode ser determinada pela estabilidade (ou not) de uma equação diferencial ordinária relacionada.

(o que se segue foi reformulado após uma discussão proveitosa com o OP nos comentários)

Convergência

Vou usar como referência Saber Elaydi "Uma Introdução às Equações das Diferenças", 2005, 3d ed. A análise é condicional em algumas amostras de dados, portanto os são tratados como fixos. xs

A condição de primeira ordem para a minimização da função objetivo, vista como uma função recursiva em , m ( k + 1 ) = N i = 1 v i [ m ( k ) ] x i ,m

m(k+1)=i=1Nvi[m(k)]xi,vi[m(k)]wi[m(k)]i=1Nwi[m(k)][1]

tem um ponto fixo (o argumento da função objetivo). Pelo Teorema 1.13 pp 27-28 de Elaydi, se a primeira derivada em relação a do RHS de , avaliada no ponto fixo , denota-o , é menor que a unidade em valor absoluto, então é assintoticamente estável (AS). Mais adiante, pelo Teorema 4.3 p.179, temos que isso também implica que o ponto fixo é uniformemente AS (UAS). "Assintoticamente estável" significa que, para alguma faixa de valores em torno do ponto fixo, uma vizinhança , não necessariamente pequena em tamanho, o ponto fixo é atraente[ 1 ] m A ( m ) m ( m ± γ ) γ = m[1]mA(m)m
(m±γ)e, portanto, se o algoritmo fornecer valores nesse bairro, ele convergirá. A propriedade sendo "uniforme" significa que o limite dessa vizinhança e, portanto, seu tamanho, é independente do valor inicial do algoritmo. O ponto fixo torna-se UAS globalmente , se . Então, no nosso caso, se provarmos queγ=

|A(m)||i=1Nvi(m)mxi|<1[2]

provamos a propriedade UAS, mas sem convergência global. Em seguida, podemos tentar estabelecer que a vizinhança da atração é de fato todo o número real estendido ou que o valor inicial específico que o OP usa conforme mencionado nos comentários (e é padrão na metodologia IRLS), ou seja, a média da amostra dos 's, , sempre pertence ao bairro de atração do ponto fixo.ˉ xxx¯

Calculamos a derivada

vi(m)m=wi(m)mi=1Nwi(m)wi(m)i=1Nwi(m)m(i=1Nwi(m))2

=1i=1Nwi(m)[wi(m)mvi(m)i=1Nwi(m)m]
Então

A(m)=1i=1Nwi(m)[i=1Nwi(m)mxi(i=1Nwi(m)m)i=1Nvi(m)xi]

=1i=1Nwi(m)[i=1Nwi(m)mxi(i=1Nwi(m)m)m]

e

|A(m)|<1|i=1Nwi(m)m(xim)|<|i=1Nwi(m)|[3]

temos

wi(m)m=ρ(|xim|)xim|xim||xim|+xim|xim|ρ(|xim|)|xim|2=xim|xim|3ρ(|xim|)ρ(|xim|)xim|xim|2=xim|xim|2[ρ(|xim|)|xim|ρ(|xim|)]=xim|xim|2[wi(m)ρ(|xim|)]

Inserindo isso em , temos[3]

|i=1Nxim|xim|2[wi(m)ρ(|xim|)](xim)|<|i=1Nwi(m)|

|i=1Nwi(m)i=1Nρ(|xim|)|<|i=1Nwi(m)|[4]

Essa é a condição que deve ser atendida para que o ponto fixo seja UAS. Como no nosso caso a função de penalidade é convexa, as somas envolvidas são positivas. Portanto, a condição é equivalente a[4]

i=1Nρ(|xim|)<2i=1Nwi(m)[5]

Se é a função de perda de Hubert, temos um ramo quadrático ( ) e linear ( ),ρ(|xim|)ql

ρ(|xim|)={(1/2)|xim|2|xim|δδ(|xim|δ/2)|xim|>δ

e

ρ(|xim|)={|xim||xim|δδ|xim|>δ

ρ(|xim|)={1|xim|δ0|xim|>δ

{wi,q(m)=1|xim|δwi,l(m)=δ|xim|<1|xim|>δ

Como não sabemos quantos dosnos coloca no ramo quadrático e quantos no linear, decompomos a condição como ( )|xim|[5]Nq+Nl=N

i=1Nqρq+i=1Nlρl<2[i=1Nqwi,q+i=1Nlwi,l]

Nq+0<2[Nq+i=1Nlwi,l]0<Nq+2i=1Nlwi,l

que vale. Portanto, para a função de perda de Huber, o ponto fixo do algoritmo é uniformemente assintoticamente estável, independentemente dos 's. Observamos que a primeira derivada é menor que a unidade em valor absoluto para qualquer , não apenas o ponto fixo. xm

O que devemos fazer agora é provar que a propriedade UAS também é global ou que, se então pertence ao bairro de atração de .m(0)=x¯m(0)m


Obrigado pela resposta. Dê-me algum tempo para analisar esta resposta.
Chris A.

Certamente. Afinal, a pergunta esperou 20 meses.
Alecos Papadopoulos

Sim, lembrei-me do problema e decidi oferecer uma recompensa. :)
Chris A.

Sorte minha. Eu não estava lá há 20 meses - eu teria aceitado essa pergunta, generosamente ou não.
Alecos Papadopoulos

Muito obrigado por esta resposta. Até agora, parece que você ganhou a recompensa. BTW, sua indexação na derivada de wrt é estranha. As somas na segunda linha disso não poderiam usar outra variável, como ? vimj
Chris A.
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.