A resposta mais votada para esta pergunta sugere que, para minimizar um sinal, preservando transições nítidas, deve-se
minimizar a função objetivo:
onde é o sinal barulhento, y é o sinal denoised, b é o parâmetro de regularização e | f ( y ) | é alguma penalidade da norma L1. A remoção de denoising é realizada encontrando a solução y para esse problema de otimização eb depende do nível de ruído.
No entanto, não há indicação de como se pode conseguir isso na prática, pois isso é um problema em um espaço dimensional muito alto, especialmente se o sinal tiver, por exemplo, 10 milhões de amostras. Na prática, como esse tipo de problema é resolvido computacionalmente para sinais grandes?