Abaixo, suponha que estamos trabalhando com uma máquina de Turing com fita infinita.
Ao explicar a noção de complexidade de tempo a alguém e por que ela é medida em relação ao tamanho de entrada de uma instância, deparei-me com a seguinte afirmação:
[..] Por exemplo, é natural que você precise de mais etapas para multiplicar dois números inteiros com 100000 bits do que, digamos, multiplicar dois números inteiros por 3 bits.
A alegação é convincente, mas de alguma forma, acenando com a mão. Em todos os algoritmos que deparei, quanto maior o tamanho da entrada, mais etapas você precisará. Em palavras mais precisas, a complexidade do tempo é uma função monotonicamente crescente do tamanho da entrada.
Será que a complexidade do tempo é sempre uma função crescente no tamanho da entrada? Se sim, por que é esse o caso? Existe uma prova disso além do acenar com a mão?