Estou confuso sobre por que nos preocupamos com diferentes representações para zero positivo e negativo.
Lembro-me vagamente das alegações de leitura de que ter uma representação zero negativa é extremamente importante na programação que envolve números complexos. Eu nunca tive a oportunidade de escrever código que envolva números complexos, por isso estou um pouco confuso sobre por que esse seria o caso.
O artigo da Wikipedia sobre o conceito não é especialmente útil; só faz afirmações vagas sobre zero assinado, tornando certas operações matemáticas mais simples em ponto flutuante, se bem entendi. Esta resposta lista algumas funções que se comportam de maneira diferente, e talvez algo possa ser inferido nos exemplos se você estiver familiarizado com o modo como elas podem ser usadas. (Embora o exemplo particular das raízes quadradas complexas pareça totalmente errado, já que os dois números são matematicamente equivalentes, a menos que eu tenha um mal-entendido.) Mas não consegui encontrar uma declaração clara do tipo de problema que você enfrentaria se não estivesse lá. Os recursos mais matemáticos que pude encontrar afirmam que não há distinção entre os dois de uma perspectiva matemática, e o artigo da Wikipedia parece sugerir que isso raramente é visto fora da computação, além de descrever limites.
Então, por que um zero negativo é valioso na computação? Tenho certeza de que estou perdendo alguma coisa.
sqrt(-1+0i) = i
e sqrt(-1-0i) = -i
, embora esteja vestido com a sintaxe apropriada para alguma linguagem de programação, acredito. Vou editar para ficar mais claro.