Hoy tuve una reunión con un proveedor de software sobre su infraestructura recomendada para implementar una aplicación en particular. La aplicación necesita dos servidores: un servidor de aplicaciones para las páginas web del servidor (.NET, Windows) y una base de datos (SQL Server). El vendedor afirmó que estos dos servidores tenían que tener "paridad de bits". Lo que querían decir con esto es que si el servidor de la aplicación tenía 32 bits, el Servidor SQL debería tener 32 bits, o si la aplicación tiene 64 bits, el Servidor SQL tiene 64 bits. De lo contrario, el rendimiento se verá afectado negativamente.
Esto me parece ridículo. Los servidores son independientes y solo se comunican a través de una red. Los protocolos de red no tienen nada que ver con el "bit-ness" del procesador en ninguno de los servidores.
¿Estoy equivocado? ¿Hay alguna razón por la cual un desajuste en realidad podría afectar negativamente el rendimiento?
NOTA: Sé que ciertas aplicaciones pueden ejecutarse más rápido o más lento en 32 bits frente a 64 bits. Pero el vendedor decía que la falta de coincidencia entre el servidor web y el servidor de base de datos causa un problema. Esta es la declaración que estoy cuestionando.