Minhas perguntas são:
- Os modelos lineares generalizados (GLMs) garantem convergir para um máximo global? Se sim, por quê?
- Além disso, que restrições existem na função de link para garantir a convexidade?
Meu entendimento dos GLMs é que eles maximizam uma função de probabilidade altamente não-linear. Assim, eu imaginaria que existem vários máximos locais e o conjunto de parâmetros para os quais você converge depende das condições iniciais do algoritmo de otimização. No entanto, depois de fazer algumas pesquisas, não encontrei uma única fonte que indique que existem vários máximos locais. Além disso, não conheço muito as técnicas de otimização, mas sei que o método Newton-Raphson e o algoritmo IRLS são altamente propensos a máximos locais.
Por favor, explique, se possível, de forma intuitiva e matemática!
EDIT: dksahuji respondeu à minha pergunta original, mas quero adicionar a pergunta de acompanhamento [ 2 ] acima. ("Que restrições existem na função de link para garantir a convexidade?")