Estoy confundido acerca de por qué nos importan las diferentes representaciones de cero positivo y negativo.
Recuerdo vagamente las afirmaciones de lectura de que tener una representación negativa de cero es extremadamente importante en la programación que involucra números complejos. Nunca he tenido la oportunidad de escribir código que involucre números complejos, así que estoy un poco desconcertado sobre por qué este sería el caso.
El artículo de Wikipedia sobre el concepto no es especialmente útil; solo hace vagas afirmaciones sobre el cero con signo, lo que simplifica ciertas operaciones matemáticas en coma flotante, si lo entiendo correctamente. Esta respuesta enumera un par de funciones que se comportan de manera diferente, y tal vez se podría inferir algo de los ejemplos si está familiarizado con cómo podrían usarse. (Aunque, el ejemplo particular de las raíces cuadradas complejas parece completamente incorrecto, ya que los dos números son matemáticamente equivalentes, a menos que tenga un malentendido.) Pero no he podido encontrar una declaración clara del tipo de problema en el que te meterías si no estuviera allí. Los recursos más matemáticos que he podido encontrar indican que no hay distinción entre los dos desde una perspectiva matemática, y el artículo de Wikipedia parece sugerir que esto rara vez se ve fuera de la computación, aparte de describir los límites.
Entonces, ¿por qué un cero negativo es valioso en informática? Estoy seguro de que solo me falta algo.
sqrt(-1+0i) = i
y sqrt(-1-0i) = -i
, aunque está vestido con la sintaxis adecuada para algún lenguaje de programación, creo. Lo editaré para ser más claro.