¿Hay alguna razón para mantener la partición primaria / unidad C de Windows: pequeña?


70

En mis trabajos hace casi dos décadas, los expertos en TI mantendrían el tamaño de la partición principal de Windows (unidad C) extremadamente pequeño en comparación con las otras particiones. Argumentarían que esto ejecuta la PC a la velocidad óptima sin disminuir la velocidad.

Pero la desventaja es que C: la unidad se llena fácilmente si se mantiene pequeña, y pronto no puede instalar un nuevo software ya que se queda sin espacio. Incluso si instalo software en D: drive, parte de él siempre se copia a C: que lo llena.

Mi pregunta es esta práctica sigue siendo buena? Por qué está hecho ¿Cuáles son sus principales ventajas si las hay? Una obvia es que si la partición primaria falla, sus datos están seguros en la secundaria.

La razón por la que hago esta pregunta es porque estoy tratando de actualizar Visual Studio y no puedo porque solo me quedan 24 MB en la partición primaria.


2
¿Qué quiere decir con "tamaño de partición principal pequeña (como 100 GB)"? ¿100 GB no es "pequeño" en la mayoría de las medidas? ¿Te refieres a "más pequeño que todo el disco"? Y por "partición principal", ¿te refieres a la partición que alberga el sistema de archivos para la unidad de Windows C :? ¿Y qué se supone que explica la captura de pantalla que publicaste? Solo muestra un disco completo ... Edite para aclarar.
sleske

10
Puede que 100 GB no parezca pequeño, pero en estos días el software grande lo llena bastante rápido como en mi caso. Partición principal = Partición primaria = Partición de arranque. La captura de pantalla muestra mi partitian principal (unidad c :) y veo que solo quedan 24 MB. Mi D: tiene 90 GB gratis y E: tiene 183 GB gratis.
hk_

1
Me tomé la libertad de editar su pregunta para aclararla. En el futuro, es mejor si edita directamente su pregunta para agregar información; los comentarios pueden eliminarse y no todos los leerán todos.
sleske

28
Yo diría que estos 'expertos' estaban equivocados entonces y ahora están equivocados. Estoy seguro de que hay casos en los que una pequeña unidad C: puede ser / haber sido útil, pero para la mayoría de los usuarios normales (incluidos los desarrolladores), lo mejor es tener una única partición C: lo más grande posible. hacer precisamente por el problema que tienes.
Neil

1
Tenga en cuenta que no siempre puede cambiar la unidad en la que está instalado un programa (por ejemplo, MS Office) y es posible que necesite más espacio del previsto inicialmente.
Nijin22

Respuestas:


89

En mis trabajos hace casi dos décadas, los expertos en TI mantendrían el tamaño de la partición principal de Windows (unidad C) extremadamente pequeño en comparación con las otras particiones. Argumentarían que esto ejecuta la PC a la velocidad óptima sin disminuir la velocidad. [...] Mi pregunta, ¿esta práctica sigue siendo buena?

En general: no .

En versiones anteriores de Windows, había problemas de rendimiento con unidades grandes (más exactamente: con sistemas de archivos grandes), principalmente porque el sistema de archivos FAT utilizado por Windows no era compatible con sistemas de archivos grandes. Sin embargo, todas las instalaciones modernas de Windows usan NTFS en su lugar, lo que resolvió estos problemas. Ver, por ejemplo, ¿El rendimiento de NTFS se degrada significativamente en volúmenes mayores de cinco o seis TB? , lo que explica que incluso las particiones de tamaño terabyte no suelen ser un problema.

Hoy en día, generalmente no hay razón para no usar una única y grande partición C:. El propio instalador de Microsoft por defecto crea una única unidad C: grande. Si hubiera buenas razones para crear una partición de datos separada, el instalador la ofrecería: ¿por qué Microsoft debería permitirle instalar Windows de una manera que cree problemas?

La razón principal contra las unidades múltiples es que aumenta la complejidad, lo que siempre es malo en TI. Crea nuevos problemas, como:

  • debe decidir qué archivos colocar en qué unidad (y cambiar la configuración adecuadamente, hacer clic en los instaladores, etc.)
  • Puede que a algunos programas (mal escritos) no les guste que no se coloquen en una unidad diferente de C:
  • puede terminar con muy poco espacio libre en una partición, mientras que la otra todavía tiene espacio libre, lo que puede ser difícil de solucionar

Hay algunos casos especiales en los que las particiones múltiples aún tienen sentido:

  • Si desea un arranque dual, (generalmente) necesita particiones separadas para cada instalación del sistema operativo (pero aún así solo una partición por instalación).
  • Si tiene más de una unidad (en particular, unidades con características diferentes, como SSD y HD), es posible que desee elegir dónde ir; en ese caso, puede tener sentido, por ejemplo, colocar la unidad C: en la SSD y D : en la HD.

Para abordar algunos argumentos a menudo planteados a favor de particiones pequeñas / separadas:

  • las particiones pequeñas son más fáciles de respaldar

Realmente debería hacer una copia de seguridad de todos sus datos de todos modos, dividirlos en particiones no ayuda realmente. Además, si realmente necesita hacerlo, todo el software de copia de seguridad que conozco le permite hacer una copia de seguridad selectiva de una parte de una partición.

  • si una partición está dañada, la otra partición aún puede estar bien

Si bien esto es teóricamente cierto, no hay garantía de que el daño se limite a una sola partición (y es aún más difícil de verificar para asegurarse de esto en caso de problemas), por lo que esto proporciona una garantía limitada. Además, si tiene copias de seguridad buenas y redundantes, la seguridad adicional suele ser demasiado pequeña para que valga la pena. Y si no tiene copias de seguridad, tiene problemas mucho mayores ...

  • si coloca todos los datos de usuario en una partición de datos, puede borrar y reinstalar / no hacer una copia de seguridad de la partición del sistema operativo porque no hay datos de usuario allí

Si bien esto puede ser cierto en teoría, en la práctica, muchos programas escribirán configuraciones y otros datos importantes para conducir C: (porque desafortunadamente están codificados para hacerlo, o porque accidentalmente olvidó cambiar sus configuraciones). Por lo tanto, en mi humilde opinión es muy arriesgado confiar en esto. Además, necesita buenas copias de seguridad de todos modos (ver arriba), por lo que después de la reinstalación puede restaurar las copias de seguridad, lo que le dará el mismo resultado (solo con mayor seguridad). Las versiones modernas de Windows ya mantienen los datos del usuario en un directorio separado (directorio de perfil de usuario), por lo que es posible la restauración selectiva.


Consulte también ¿Instalará software en la misma partición que el sistema Windows? para más información.


3
las particiones múltiples también tienen sentido si desea mover los datos del usuario fuera de C: \ desacoplarlos de (m) cualquier problema con el sistema operativo. Entonces podría decir, instale otro sistema operativo en su lugar y sus datos de usuario permanecerán seguros (siempre que la partición de usuario no se elimine)
Baldrickk

1
Es posible que desee realizar una copia de seguridad de imagen para su partición del sistema, mientras que una simple copia de seguridad de datos para todas las demás particiones es suficiente.
Thomas

26
El resto de su respuesta es buena, pero "el instalador le permite hacerlo" no es una forma válida de verificar si algo es bueno o no. ¿Por qué lo harían? Olvido, estupidez, pereza, ignorancia, limitaciones técnicas, administración media ... Hay un millón de razones por las que el instalador puede hacer lo incorrecto de manera predeterminada, y mucho menos simplemente dejar que haga lo incorrecto. Eso se aplica doblemente a un sistema tan complejo como Windows.
Nic Hartley

2
Recuerdo que WinXP y Win 7 permitieron al usuario crear múltiples particiones y establecer el tamaño de las particiones durante la instalación. Sin embargo, no recuerdo si este es el caso. MS es conocida por tomar malas decisiones, aparentemente por capricho, y apoyarlas durante años antes de tomar otra mala decisión para "solucionar" el (no) problema. Además, los usuarios técnicos / artísticos que necesitan manipular archivos grandes localmente a menudo necesitan más unidades para manejar el trabajo. Y: "aumenta la complejidad, lo que siempre es malo en TI", en general es solo la mitad de la razón. Mi razonamiento está fuera de tema, así que lo dejaré en paz.
computercarguy

2
"¿Por qué debería Microsoft permitirle instalar Windows de una manera que cree problemas?" ¿Porque asume que Microsoft siempre le permite, de manera predeterminada, usar la mejor opción optimizada?
Jonathan Drapeau

25

La razón histórica de esta práctica probablemente se deba a las propiedades de rendimiento de los discos duros magnéticos giratorios. El área en los discos giratorios con la velocidad de acceso secuencial más alta son los sectores más externos (cerca del inicio de la unidad).

Si usa toda la unidad para su sistema operativo, tarde o temprano (a través de actualizaciones, etc.) los archivos de su sistema operativo se extenderían por toda la superficie del disco. Por lo tanto, para asegurarse de que los archivos del sistema operativo permanecen físicamente en el área de disco más rápida, debe crear una pequeña partición del sistema al comienzo de la unidad y distribuir el resto de la unidad en tantas particiones de datos como desee.

La latencia de búsqueda también depende en parte de cuán lejos deben moverse las cabezas, por lo que mantener todos los archivos pequeños algo cerca uno del otro también tiene una ventaja en las unidades giratorias.

Esta práctica ha perdido toda su razón con la llegada del almacenamiento SSD.


1
Además de perder tracción debido a los SSD, las unidades SATA y SASS más nuevas giran mucho más rápido (7200 y + 10k rpm frente a 5400 rpm) y tienen tiempos de búsqueda más rápidos que las unidades antiguas. Si bien todavía hay una verdad mínima sobre el "problema de la velocidad", no muchas personas que usan el hardware de hoy notarían un aumento de la velocidad usando una pequeña partición sin un software de evaluación comparativa.
computercarguy

66
"La velocidad de acceso más alta son los sectores más internos". , "Entonces, para asegurarse de que los archivos del sistema operativo permanecen físicamente en el área del disco más rápido, crearía una pequeña partición del sistema al comienzo de la unidad" - No, lo tiene al revés, como esta pregunta: superuser.com / preguntas / 643013 /… . También su reclamo de "razón histórica" es dudosa. Hasta que las unidades ATAPI comenzaron a usar la grabación de bits de zona, todos los discos duros anteriores usaban grabación angular constante, por lo que no había diferencia de velocidad para hablar entre cilindros.
aserrín

3
@sawdust, la razón histórica no fue la latencia de lectura, sino la latencia de búsqueda. El FAT se almacenó en la dirección de pista más baja y, por lo tanto, la cabeza del disco tendría que regresar allí al menos cada vez que se creara o extendiera un archivo. Con los discos de la década de 1980, la diferencia de rendimiento era medible. Una de las características de diseño de HPFS (antepasado de NTFS) fue colocar el MFT en el medio de la partición para reducir los tiempos promedio de búsqueda. Por supuesto, una vez que coloca múltiples particiones en un disco, tiene múltiples zonas FAT / MFT, por lo que la búsqueda ya no está optimizada.
grahamj42

@ Grahamj42 - No, todavía estás equivocado. El tiempo de búsqueda es puramente una función (no lineal) de la distancia de búsqueda, que se mide en el número de cilindros. El tiempo de búsqueda no tiene ninguna relación con los cilindros internos versus los externos como usted afirma. No estoy seguro de lo que quiere decir con "latencia de lectura" . FYI Tengo experiencia de primera mano con los componentes internos de la unidad de disco, los controladores de disco y el firmware de la unidad de disco, es decir, este conocimiento no se aprendió simplemente leyendo. Y fui profesionalmente activo antes y después de que se hiciera esta "historia" a la que te refieres.
aserrín

1
@sawdust - Lamento que me hayas entendido mal y el tamaño de un comentario haya restringido lo que podía escribir. En una partición FAT, la cabeza debe reposicionarse a la FAT cada vez que se actualiza, o si el sector FAT a leer ya no está en caché, por lo tanto, la probabilidad de encontrar la cabeza en un cilindro externo es mucho mayor que encontrarla en un interior cilindro, lo que significa que el tiempo de búsqueda promedio es menor. Estoy hablando de las unidades de motor paso a paso de principios de los 80 (el ST-412 tenía un tiempo de búsqueda promedio de 85 ms, pero 3 ms para un cilindro). Una unidad moderna es aproximadamente 10 veces más rápida.
grahamj42

5

¿Hay alguna razón para mantener la partición primaria / unidad C de Windows: pequeña?

Aquí hay algunas razones para hacer eso:

  1. Todos los archivos del sistema y el sistema operativo en sí están en la partición primaria. Es mejor mantener esos archivos separados de otro software, datos personales y archivos, simplemente porque entrometerse constantemente en la partición de arranque y mezclar sus archivos allí ocasionalmente puede provocar errores, como eliminar archivos o carpetas del sistema por accidente. La organización es importante. Esta es la razón por la cual el tamaño de la partición primaria es bajo, para disuadir a los usuarios de descargar todos sus datos allí.
  2. Copias de seguridad : es mucho más fácil, rápido y efectivo hacer copias de seguridad y recuperar una partición más pequeña que una más grande, dependiendo del propósito del sistema. Como señaló @computercarguy en los comentarios, es mejor hacer una copia de seguridad de carpetas y archivos específicos, que hacer una copia de seguridad de una partición completa, a menos que sea necesario.
  3. Sin embargo, podría mejorar el rendimiento de una manera apenas perceptible. En los sistemas de archivos NTFS , existen las llamadas Tablas de archivos maestros en cada partición, y contiene metadatos sobre todos los archivos en la partición:

    Describe todos los archivos en el volumen, incluidos los nombres de archivo, marcas de tiempo, nombres de secuencia y listas de números de clúster donde residen las secuencias de datos, índices, identificadores de seguridad y atributos de archivo como "solo lectura", "comprimido", "cifrado", etc.

Esto podría presentar una ventaja, aunque imperceptible, por lo que podría ignorarse, ya que realmente no hace la diferencia. La respuesta de @ WooShell está más relacionada con el problema de rendimiento, a pesar de que todavía es descuidada.

Otra cosa a tener en cuenta es que, en caso de tener un SSD + HDD, es mucho mejor almacenar su sistema operativo en el SSD y todos sus archivos / datos personales en el HDD. Lo más probable es que no necesite el aumento de rendimiento de tener un SSD para la mayoría de sus archivos personales y las unidades de estado sólido de nivel de consumidor generalmente no tienen mucho espacio en ellas, por lo que preferiría no intentar llenarlo con archivos personales .

¿Alguien puede explicar por qué se hace esta práctica y sigue siendo válida?

Describió algunas de las razones por las que se hace. Y sí, sigue siendo válido, aunque ya no es una buena práctica como parece. Los inconvenientes más notables son que los usuarios finales tendrán que seguir dónde las aplicaciones sugieren instalar sus archivos y cambiar esa ubicación (posible durante casi cualquier instalación de software, especialmente si la instalación experta / avanzada es una opción) para que la partición de arranque no ' t se llenan, ya que el sistema operativo necesita actualizarse a veces, y otra desventaja es que al copiar archivos de una partición a otra, en realidad necesita copiarlos, mientras que si estaban en la misma partición, simplemente actualiza el MFT y los metadatos no necesitan volver a escribir los archivos completos.

Desafortunadamente, algunos de estos pueden introducir más problemas:

  1. Aumenta la complejidad de la estructura, lo que la hace más difícil y requiere más tiempo de administración.
  2. Algunas aplicaciones aún escriben archivos / metadatos en la partición del sistema (asociaciones de archivos, menús contextuales, etc.), incluso si se instalan en otra partición, por lo que esto dificulta la copia de seguridad y puede introducir fallas en la sincronización entre particiones. (gracias al comentario de @ Bob)

Para evitar el problema que tiene, necesita:

  1. Intente siempre instalar aplicaciones en las otras particiones (cambie la ubicación de instalación predeterminada).
  2. Asegúrese de instalar solo software importante en su partición de arranque. Otro software no tan necesario y sin importancia debe mantenerse fuera de él.

Tampoco estoy diciendo que tener múltiples particiones con una pequeña primaria sea la mejor idea. Todo depende del propósito del sistema, y ​​aunque presenta una mejor manera de organizar sus archivos, viene con sus desventajas, que en los sistemas Windows en los días actuales, son más que los profesionales.

Nota: Y como usted mismo mencionó, mantiene seguros los datos que están en particiones separadas en caso de que ocurra una falla en la partición de arranque.


1
"Por lo tanto, una partición más pequeña con una tabla maestra de archivos más pequeña realizará búsquedas más rápidas y mejorará el rendimiento de un disco duro". Cita requerida: serverfault.com/questions/222110/… por ejemplo indica que incluso grandes volúmenes no son un problema hoy en día.
sleske

1
"Por supuesto, muchos desarrolladores de software tienen la mala práctica de sugerir a los usuarios finales que instalen su aplicación en la partición primaria. Pero, en general, no es una buena idea". - cita requerida
gronostaj

55
"Como las tablas de archivos maestros almacenan información sobre todos los archivos en una partición, al realizar cualquier acción en cualquiera de los archivos en esa partición, se ve a través de toda la tabla". Oh, absolutamente no. Dicha declaración solo puede hacerse en una ignorancia casi completa de cómo funcionan los sistemas de archivos y cómo se realiza la organización del almacenamiento en disco en general. Si esto fuera cierto, entonces el rendimiento de cualquier operación que involucre a la MFT se degradaría linealmente (¡o peor!) Con el tamaño de la MFT, y eso no sucede.
Jamie Hanrahan

1
"ya que el sistema operativo no realiza tantas operaciones de lectura / escritura como otro software" . Si su sistema operativo es Windows, está realizando muchas operaciones R / W en el disco de instalación. Muchos de ellos Si está usando IE o Edge, está instalado como parte de Windows (no creo que pueda especificar dónde está instalado, aunque puedo estar equivocado), y eso está guardando un montón de cosas mientras escribo este comentario.
FreeMan

2
"Es mejor mantener esos archivos [OS] separados de otro software" - No. El problema con este enfoque es que mucho software mantiene el estado de instalación (y desinstaladores) con el sistema operativo. Una gran cantidad de software también se registra con varias partes del sistema operativo: asociaciones de archivos, entradas de menú contextual, renderizadores de vista previa, etc. Instalar el software en una partición separada no lo impide; simplemente los hace extenderse a través de dos particiones. Lo que es, en todo caso, peor que mantenerlos juntos: ahora ha agregado el riesgo de que las dos particiones se desincronicen en las copias de seguridad.
Bob

4

Soy desarrollador de software, pero también he pasado tiempo haciendo trabajos de TI "regulares" / administrativos. Normalmente mantengo el sistema operativo y las aplicaciones en la unidad C :, y mis archivos personales en la unidad D :. No es necesario que sean unidades físicas separadas, pero actualmente estoy usando una SSD relativamente pequeña como mi unidad de "sistema" (C :) y una unidad de disco "tradicional" (es decir, con platos magnéticos giratorios) como mi "hogar". conducir (D :).

Todos los sistemas de archivos están sujetos a fragmentación. Con los SSD esto es básicamente un problema, pero sigue siendo un problema con las unidades de disco tradicionales.

He descubierto que la fragmentación puede degradar significativamente el rendimiento del sistema. Por ejemplo, descubrí que una compilación completa de un gran proyecto de software mejoró en más del 50% después de desfragmentar mi disco, y la compilación en cuestión tomó la mayor parte de una hora, por lo que esta no fue una diferencia trivial.

Manteniendo mis archivos personales en un volumen separado, he encontrado:

  • el volumen del sistema no se fragmenta tan rápido (o severamente);
  • Es mucho más rápido desfragmentar los dos volúmenes separados que un solo volumen con todo: cada volumen toma 20% -25% tanto como lo haría el volumen combinado.

Lo he observado en varias generaciones de PC, con varias versiones de Windows.

(Como señaló un comentarista, esto también tiende a facilitar la realización de copias de seguridad).

Debo señalar que las herramientas de desarrollo que uso tienden a generar una gran cantidad de archivos temporales, que parecen ser un contribuyente significativo al problema de fragmentación. Por lo tanto, la gravedad de este problema variará según el software que utilice; Es posible que no note una diferencia, o una gran diferencia. (Pero hay otras actividades, por ejemplo, composición y edición de video / audio, que son intensivas en E / S y, dependiendo del software utilizado, pueden generar grandes cantidades de archivos temporales / intermedios. Mi punto es, no escribir esto como algo que solo afecta a una clase de usuarios).

Advertencia: con las versiones más recientes de Windows (desde 8 en adelante), esto se ha vuelto mucho más difícil, porque las carpetas de usuario en un volumen que no sea C: ya no son compatibles oficialmente. Puedo decirle que no pude realizar una actualización in situ de Windows 7 a Windows 10, pero YMMV (hay varias formas diferentes de [re] localizar una carpeta de usuario, no sé cuáles están afectadas) .

Una nota adicional: si mantiene dos volúmenes separados en una unidad tradicional, es posible que desee configurar un archivo de página en el volumen D:. Por las razones descritas en la respuesta de WooShell, esto reducirá el tiempo de búsqueda al escribir en el archivo de la página.


Para mí, es sólo que C: puede ser reinstalado, donde todo el día D: tiene que ser respaldada
MAWG

Con los SSD, la fragmentación de metadatos sigue siendo un problema porque significa más comandos de lectura / escritura para el mismo trabajo. Aunque el impacto sigue siendo incomparablemente menor que para las unidades de rotación.
ivan_pozdeev

4

Respuesta corta: ya no más.

En mi experiencia (más de 20 años de trabajo de administración de TI), la razón principal de esta práctica (otras se enumeran a continuación) es que los usuarios básicamente no confiaban en Windows con sus datos y espacio en el disco duro.

Windows ha sido notoriamente malo en mantenerse estable con el tiempo, limpiar después de sí mismo, mantener la partición del sistema en buen estado y proporcionar un acceso conveniente a los datos del usuario. Por lo tanto, los usuarios prefirieron rechazar la jerarquía del sistema de archivos que proporcionaba Windows y rodar la suya propia. La partición del sistema también actuó como un gueto para negarle a Windows los medios para causar estragos fuera de sus límites.

  • Hay muchos productos, incluidos los de Microsoft, que no se desinstalan limpiamente y / o causan problemas de compatibilidad y estabilidad (la manifestación más destacada son los archivos y las entradas de registro sobrantes y DLL Hellen todas sus encarnaciones). Muchos archivos creados por el sistema operativo no se limpian después (registros, actualizaciones de Windows, etc.), lo que hace que el sistema operativo ocupe más y más espacio a medida que pasa el tiempo. En Windows 95 e incluso en la era XP, los consejos llegaron a sugerir una reinstalación limpia del sistema operativo de vez en cuando. La reinstalación del sistema operativo requería la capacidad de garantizar la limpieza del sistema operativo y su partición (para limpiar también cualquier dato falso en el sistema de archivos), imposible sin múltiples particiones. Y dividir el disco sin perder datos solo es posible con programas especializados (que pueden tener sus propias sorpresas desagradables como rescatar y dejar los datos en un estado inutilizable al encontrar un sector defectuoso). Varios programas de "limpieza" aliviaron el problema, pero su lógica se basó en ingeniería inversa y comportamiento observado.RegCleanla propia utilidad de MS fue cancelada después del lanzamiento de Office 2007 que rompió las suposiciones sobre el registro en el que se basaba). El hecho de que muchos programas guardaran sus datos en lugares arbitrarios hizo que la separación de los datos del usuario y del sistema operativo fuera aún más difícil, lo que hacía que los usuarios también instalaran programas fuera de la jerarquía del sistema operativo.
    • Microsoft intentó varias formas de mejorar la estabilidad, con diversos grados de éxito ( archivos DLL compartidos , Protección de archivos de Windows y su sucesor TrustedInstaller, Subsistema lado a lado , un repositorio separado para módulos .NET con estructura de almacenamiento que evita conflictos de versiones y proveedores ) Las últimas versiones de Windows Installer incluso tienen una verificación de dependencia rudimentaria (probablemente el último administrador de paquetes importante en uso general que incluye esa característica).
    • Con respecto al cumplimiento de software de terceros con las mejores prácticas, maniobraron entre mantener la compatibilidad con software mal escrito pero suficientemente utilizado (de lo contrario, sus usuarios no actualizarían a una nueva versión de Windows), lo que lleva a una cantidad alucinante de Errores y soluciones en el sistema operativo, incluido el comportamiento indocumentado de la API, parches en vivo de programas de terceros para corregir errores y algunos niveles de virtualización del registro y del sistema de archivos, y entre obligar a los proveedores de terceros a cumplir con medidas como un logotipo de certificación programa y un programa de firma del controlador (obligatorio a partir de Vista).
  • Los datos del usuario que están enterrados debajo de una ruta larga debajo del perfil del usuario hacen que resulte inconveniente buscar y especificar rutas a él. Las rutas también usaban nombres largos , tenían espacios (una pesadilla de shells de comandos en todas partes) y caracteres nacionales (un problema importante para los lenguajes de programación, excepto los muy recientes que tienen soporte integral de Unicode) y eran específicos de la ubicación (!) Y no se podían obtener sin acceso winapi (!!) (matando cualquier esfuerzo de internacionalización en scripts), todo lo cual tampoco ayudó.
    Por lo tanto, tener sus datos en el directorio raíz de una unidad separada fue visto como una estructura de datos más conveniente que la que proporcionó Windows.
    • Esto solo se solucionó en versiones muy recientes de Windows. Las rutas mismas fueron arregladas en Vista, compactando nombres largos, eliminando espacios y nombres localizados. El problema de navegación se corrigió en Win7 que proporcionaba entradas en el menú de inicio tanto para la raíz del perfil de usuario como para la mayoría de los otros directorios debajo de él y cosas como las carpetas persistentes "Favoritos" en los cuadros de diálogo de selección de archivos, con valores predeterminados razonables Downloads, para evitar la necesidad de navegar para ellos cada vez
  • En general, los esfuerzos de MS dieron sus frutos al final. Desde Win7, el sistema operativo, el stock y el software de terceros, incluidas las utilidades de limpieza, son lo suficientemente estables y se comportan bien, y los discos duros son lo suficientemente grandes como para que el sistema operativo no requiera la reinstalación durante toda la vida útil de una estación de trabajo típica. Y la jerarquía bursátil es utilizable y lo suficientemente accesible como para aceptarla y usarla en la práctica diaria.

Las razones secundarias son:

  • El software anterior (sistema de archivos y soporte de particionamiento en BIOS y sistemas operativos) se quedaba atrás de los discos duros al admitir grandes volúmenes de datos, por lo que era necesario dividir un disco duro en partes para poder utilizar su capacidad total.
    • Esto fue principalmente un problema en DOS y Windows 95 veces. Con la llegada de FAT32 (Windows 98) y NTFS (Windows NT 3.1), el problema se resolvió en gran medida por el momento.
    • La barrera de 2 TB que surgió recientemente fue reparada por la generación reciente de sistemas de archivos ( ext4 y versiones recientes de NTFS ), GPT y discos 4k .
  • Varios intentos de optimizar el rendimiento. Los discos duros rotativos son un poco (aproximadamente 1,5 veces) más rápidos para leer datos de pistas externas (que se asignan a los sectores iniciales) que los internos, lo que sugiere ubicar archivos a los que se accede con frecuencia, como bibliotecas del sistema operativo y archivos de paginación, cerca del inicio del disco.
    • Dado que los datos del usuario también se acceden con mucha frecuencia y el reposicionamiento de cabezales tiene un impacto aún mayor en el rendimiento, fuera de las cargas de trabajo muy específicas, la mejora en el uso de la vida real es marginal en el mejor de los casos.
  • Múltiples discos físicos. Esta es una configuración no típica para una estación de trabajo, ya que un HDD moderno a menudo es lo suficientemente grande por sí mismo y las computadoras portátiles ni siquiera tienen espacio para un segundo HDD. La mayoría, si no todas las estaciones que he visto con esta configuración, son computadoras de escritorio que (re) usan discos duros más antiguos que todavía están operativos y se suman al tamaño necesario; de lo contrario, se debe usar un RAID o una de las unidades debe contener copias de seguridad y no estar en uso regular.
    • Este es probablemente el único caso en el que se obtiene una ganancia real al dividir el sistema y los datos en volúmenes separados: dado que están físicamente en un hardware diferente, se puede acceder en paralelo (a menos que sean dos unidades PATA en el mismo cable) y no hay rendimiento golpear en la cabeza de reposicionamiento al cambiar entre ellos.
      • Para volver a utilizar la estructura de directorios de Windows, que típicamente del muevo C:\Usersa la unidad de datos. Mover un solo perfil o incluso solo Documents, Downloadsy Desktopdemostró ser inferior porque otras partes del perfil y Publictambién puede crecer sin control (ver la configuración de "configuración y datos separados" a continuación).
    • Aunque los discos se pueden consolidar en un volumen extendido , no lo uso ni lo recomiendo porque Dynamic Volumes es una tecnología patentada con la que las herramientas de terceros tienen problemas para trabajar y porque si alguna de las unidades falla, se pierde todo el volumen.
  • Un M.2 SSD + HDD.
    • En este caso, prefiero usar SSD únicamente como caché: de esta manera, obtienes el beneficio de un SSD para toda tu matriz de datos en lugar de solo una parte arbitraria, y lo que se acelera se determina automáticamente por lo que realmente acceso en la práctica.
    • En cualquier caso, esta configuración en una computadora portátil es inferior a un solo SSD porque las HDD también son intolerantes a los golpes y vibraciones externas, que son muy reales para las computadoras portátiles.
  • Escenarios de arranque dual. En general, dos sistemas operativos no pueden coexistir en una sola partición. Este es el único escenario que conozco que garantiza múltiples particiones en una estación de trabajo. Y los casos de uso para eso son muy raros hoy en día de todos modos porque cada estación de trabajo ahora es lo suficientemente potente como para ejecutar máquinas virtuales.
  • En los servidores, hay una serie de otros escenarios válidos, pero ninguno de ellos se aplica al dominio de Superusuario.
    • Por ejemplo, se pueden separar los datos persistentes (programas y configuración) de los datos cambiantes (datos y registros de la aplicación) para evitar que una aplicación fuera de control rompa todo el sistema. También hay varias necesidades especiales (por ejemplo, en un sistema embebido, los datos persistentes a menudo residen en una EEPROM mientras que los datos de trabajo en una unidad RAM). El estándar de jerarquía del sistema de archivos de Linux se presta muy bien a ajustes de este tipo.

3

Hace casi 2 décadas habría estado dominado por el rango de Windows 98 a XP, incluidos NT4 y 2000 en el lado de la estación de trabajo / servidor.

Todos los discos duros también serían almacenamiento magnético con cable PATA o SCSI, ya que los SSD cuestan más que la computadora, y SATA no existía.

Como dice la respuesta de WooShell, los sectores lógicos más bajos en el disco (fuera del plato) tienden a ser los más rápidos. Mis unidades de 1TB WDC Velociraptor comienzan a 215MB / s, pero bajan a 125MB / s en los sectores externos, una caída del 40%. Y esta es una unidad de disco de disco de 2.5 ", por lo que la mayoría de las unidades de 3.5" generalmente experimentan una caída aún mayor en el rendimiento, superior al 50% . Esta es la razón principal para mantener pequeña la partición principal, pero solo se aplica cuando la partición es pequeña en relación con el tamaño de la unidad.

La otra razón principal para mantener pequeña la partición era si usaba FAT32 como sistema de archivos, que no admitía particiones de más de 32 GB. Si estaba usando NTFS, las particiones de hasta 2TB eran compatibles antes de Windows 2000, luego hasta 256TB.

Si su partición era demasiado pequeña en relación con la cantidad de datos que se escribirían, es más fácil fragmentarla y más difícil de desfragmentar. De usted puede quedarse sin espacio como lo que le sucedió. Si tenía demasiados archivos en relación con la partición y los tamaños de clúster, la administración de la tabla de archivos podría ser problemática y afectar el rendimiento. Si está utilizando volúmenes dinámicos para redundancia, mantener los volúmenes redundantes tan pequeños como sea necesario ahorrará espacio en los otros discos.

Hoy en día las cosas son diferentes, el almacenamiento del cliente está dominado por unidades flash SSD o unidades magnéticas flash aceleradas. El almacenamiento es generalmente abundante y es fácil agregar más a una estación de trabajo, mientras que en los días de PATA, es posible que solo haya tenido una única conexión de unidad no utilizada para dispositivos de almacenamiento adicionales.

Entonces, ¿sigue siendo una buena idea o tiene algún beneficio? Eso depende de los datos que guarde y de cómo los administre. Mi estación de trabajo C: solo tiene 80 GB, pero la computadora en sí tiene más de 12 TB de almacenamiento, distribuidos en varias unidades. Cada partición solo contiene un cierto tipo de datos, y el tamaño del clúster coincide con el tipo de datos y el tamaño de la partición, lo que mantiene la fragmentación cerca de 0 y evita que el MFT sea excesivamente grande.

La reducción de tamaño es que hay espacio sin usar, pero el rendimiento aumenta más de lo que compensa, y si quiero más almacenamiento, agrego más unidades. C: contiene el sistema operativo y las aplicaciones de uso frecuente. P: contiene aplicaciones menos utilizadas y es un SSD de 128 GB con una calificación de durabilidad de escritura menor que C :. T: está en un SSD SLC más pequeño y contiene archivos temporales del usuario y del sistema operativo, incluida la memoria caché del navegador. Los archivos de video y audio se almacenan magnéticamente, al igual que las imágenes de máquinas virtuales, las copias de seguridad y los datos archivados, estos generalmente tienen un tamaño de clúster de 16 KB o más, y las lecturas / escrituras están dominadas por el acceso secuencial. Ejecuto desfragmentación solo una vez al año en particiones con un alto volumen de escritura, y me lleva unos 10 minutos hacer todo el sistema.

Mi computadora portátil solo tiene una SSD de 128 GB y un caso de uso diferente, por lo que no puedo hacer lo mismo, pero aún así me separo en 3 particiones, C: (80 GB OS y programas), T: (8 GB temp) y F: ( 24 GB de archivos de usuario), que hace un buen trabajo al controlar la fragmentación sin desperdiciar espacio, y la computadora portátil será reemplazada mucho antes de que se quede sin espacio. También facilita mucho la copia de seguridad, ya que F: contiene los únicos datos importantes que cambian regularmente.


Sin embargo, mi pregunta dice que nuestro experto en TI "todavía" lo hace, ya que me encuentro con el mismo problema en este momento.
hk_

Tenga en cuenta que desde Vista, Windows mantiene automáticamente los archivos de sistema a los que se accede con frecuencia en los sectores externos (si es posible) de todos modos. Esta es una de las razones principales por las que las velocidades de inicio aumentaron tanto: toda la secuencia de inicio, incluidas las aplicaciones de inicio, generalmente se lee secuencialmente desde la unidad en el lugar donde es más rápida. A menos que haya estropeado las particiones, por supuesto: las SSD P siguen siendo de gran ayuda, incluso solo por su mayor rendimiento.
Luaan

2
@hk_ solo porque su experto en TI siga haciendo cosas por costumbre no significa que las verdades fundamentales para ese hábito de hace 20 o 15 (o incluso 5) años sigan siendo ciertas hoy en día. Si eras británico y continuaras conduciendo por el lado izquierdo de la carretera por costumbre cuando cruzaste a Europa continental, estarías en un mundo de dolor. es decir, "porque siempre lo hice así" no es una buena razón para seguir haciendo algo.
FreeMan

@FreeMan No lo estoy apoyando. Tenía dudas de ahí mi pregunta.
hk_

3

Solía ​​trabajar en TI, y esto es lo que sé y recuerdo.

En el pasado, como han dicho otros, hubo un beneficio real al tener una pequeña partición C en el inicio del disco. Incluso hoy en algunas computadoras portátiles de gama baja esto podría ser cierto. Esencialmente, al tener una partición más pequeña, tiene menos fragmentación y al mantenerla al comienzo del disco, es mejor buscar y así leer los tiempos. Esto todavía es válido hoy en día con computadoras portátiles (generalmente) y discos duros "verdes" más lentos.

Otro gran beneficio que todavía uso hoy en día es tener "datos" y "os" en unidades separadas, o si no puedo manejar esas particiones separadas. No hay un aumento real de la velocidad si se usa SSD, o incluso unidades magnéticas más rápidas, pero hay una gran opción de "solución fácil" cuando el SO finalmente se acumula. Simplemente cambie la unidad o reescriba esa partición. Los datos del usuario están intactos. Cuando se configura correctamente, entre una unidad D: y "Perfiles móviles", la reinstalación de Windows no es un problema de 5 minutos. Es un buen primer paso para un técnico de nivel 1.


No estoy seguro de que "un buen primer paso para un técnico de nivel 1" sea reinstalar Windows, independientemente de lo rápido que sea. Creo que la reinstalación del sistema operativo casi siempre debería ser una opción de último recurso. Tantas pequeñas cosas extrañas podrían romperse si elimina la instalación del sistema operativo en todas las aplicaciones instaladas y la reemplaza con otra (aunque muy similar). Por ejemplo, ¿qué sucede con las entradas de registro específicas de la aplicación que no están en HKCU?
Aaron M. Eshbach

1
También se borran, lo que significa que también puedes descartar problemas de configuración.
coteyr

2

Aquí hay una razón, pero no creo que sea una razón válida para las computadoras (modernas) de hoy.

Esto se remonta a Windows 95/98 y XT. Probablemente no se aplique a Vista y posteriores, pero era una limitación de hardware, por lo que ejecutar un sistema operativo más nuevo en hardware antiguo aún tendría que lidiar con la limitación.

Creo que la limitación fue de 2 gb, pero podría haber habido una limitación de 1 gb (o quizás otras) en un momento anterior.

El problema era (algo así): la partición BOOT tenía que estar dentro de los primeros 2 gb (quizás 1 gb antes) del espacio físico en la unidad. Podría haber sido que 1) el INICIO de la partición de ARRANQUE tenía que estar dentro de los límites del límite, o, 2) la PARTIDA COMPLETA de arranque tenía que estar dentro de los límites del límite. Es posible que en varios momentos, cada uno de esos casos se aplicara, pero si se aplicó el n. ° 2, probablemente duró poco, así que supondré que es el n. ° 1.

Entonces, con el # 1, el INICIO de la partición BOOT tenía que estar dentro de los primeros 2 gb de espacio físico. Esto no impediría hacer 1 gran partición para el arranque / sistema operativo. Pero, el problema era el arranque dual / múltiple. Si alguna vez parecía posible querer iniciar dual / multi la unidad, tenía que haber espacio disponible debajo de la marca de 2 gb para crear otras particiones de arranque en la unidad. Como puede que no se sepa en el momento de la instalación si la unidad alguna vez necesitaría otra partición de arranque, por ejemplo, Linix, o alguna partición de depuración / solución de problemas / recuperación de arranque, a menudo se recomendaba (y a menudo sin saber por qué) instalar en un "pequeño" "Partición de arranque del sistema operativo.


2

Me pregunto si su departamento de TI de hace décadas estaba preocupado por el respaldo. Dado que C: es una partición de arranque / SO, sería típico usar algún tipo de copia de seguridad de imagen, pero para una partición de datos / programa, se podría usar una copia de seguridad incremental de archivo + carpeta. La reducción del espacio utilizado en la partición C: reduciría el tiempo y el espacio necesarios para hacer una copia de seguridad de un sistema.


Un comentario sobre mi uso personal de la partición C: Tengo un sistema de arranque múltiple que incluye Win 7 y Win 10 y no tengo ningún sistema operativo en la partición C: solo los archivos de arranque. Utilizo la copia de seguridad de la imagen del sistema de Windows para Win 7 y Win 10, y la copia de seguridad de la imagen del sistema de Windows siempre incluye la partición C: (arranque), además de la partición de Win 7 o Win 10, por lo que este es otro escenario en el que se reduce la cantidad de datos y programas en la partición C: reduce el tiempo y el espacio necesarios para una copia de seguridad de la imagen del sistema (o restaurar si es necesario).


Dejo esta sección en mi respuesta debido a los comentarios a continuación.

Dado que mi sistema es de arranque múltiple, reiniciar en un sistema operativo diferente hace que la copia de seguridad de las particiones de datos / programas sea más sencilla ya que no hay actividad en las particiones mientras se realizan copias de seguridad. Escribí un programa de copia de seguridad simple que hace una copia de carpeta + archivo junto con información de seguridad y análisis, pero no funciona para las particiones del sistema operativo Win 7 o Win 10, por lo que estoy usando la copia de seguridad de la imagen del sistema para C ;, Win 7 y Win 10 particiones del sistema operativo.


3
...¿qué? No faltan herramientas y métodos para hacer una copia de seguridad de la partición del sistema. Además, es probable que su sistema de respaldo interno falle por algo complejo porque no maneja los casos comunes de archivos vinculados (SxS depende en gran medida de esto), puntos de unión (nuevamente, el sistema operativo central se basa en esto), parcialmente archivos escritos (VSS maneja esto), archivos bloqueados (de nuevo, VSS), etc.
Bob

Probablemente pueda nombrar media docena de paquetes de software diferentes: veem, macrium, acronis, symentec ghost ... que hacen esto. La mayoría de estos utilizan mecanismos incorporados en el fondo también.
Journeyman Geek

Ejecuto veeam, hice una copia de seguridad en una unidad externa pero ejecuto a diario. Hay algunas partes móviles más para las copias de seguridad de respaldo, pero ciertamente no necesita desfragmentar manualmente o hacer una copia de respaldo fuera de línea.
Journeyman Geek

En cuanto a las copias de seguridad de partición completa en línea, casi todo usa VSS para obtener una instantánea de un punto en el tiempo (de lo contrario, se encuentra con problemas cuando realiza una copia de seguridad, por ejemplo, de un archivo de base de datos que está parcialmente escrito, luego haga una copia de seguridad del diario de la base de datos después del el archivo ha terminado de leer). Disk2vhd es el ejemplo más trivial; Más suites con todas las funciones, como Acronis, también manejarán imágenes diferenciales / incrementales.
Bob

@Bob: solo ejecuto mi programa después de reiniciar en un sistema operativo diferente, por lo que cualquier partición de la que se realice una copia de seguridad no está activa, evitando el problema de capturar una partición activa en el momento oportuno. Es similar al arranque desde un CD-ROM para ejecutar una utilidad de imagen de disco para "clonar" un disco duro (lo que hice hace un tiempo cuando reemplacé todos mis discos duros).
rcgldr

2

No, no con Windows y sus principales paquetes de software insistiendo en los vínculos con el Sistema: a pesar de instalarlos en Programas :. (Es una necesidad institucionalizada la forma en que se construyen la mayoría de los sistemas operativos). Datos: el volumen tiene sentido, pero una unidad extraíble separada para sus datos (o NAS, o copias de seguridad selectivas o incrementales en una unidad extraíble) tiene aún más sentido.

Particionar para sistemas multi-OS también tiene sentido, pero cada partición lo obliga a seleccionar un límite superior de almacenamiento rígido. En general, es mejor con unidades separadas, incluso en este caso.

Y hoy, las máquinas virtuales y las unidades en la nube complementan muchas de estas opciones.


2

Hay una razón particular: el uso de instantáneas de volumen.

Una instantánea de volumen es una copia de seguridad de toda la partición. Cuando restaura a partir de este tipo de copia de seguridad, reescribe toda la partición, revertiendo efectivamente el sistema al estado anterior.

Un administrador del sistema puede crear tales instantáneas de forma regular en preparación para cualquier tipo de fallas de software. Incluso pueden almacenarlos en otra partición de la misma unidad. Es por eso que desea que la partición del sistema sea relativamente pequeña.

Al usar este esquema, se alienta a los usuarios a almacenar sus datos en la unidad de red. En caso de problemas de software, un administrador del sistema puede simplemente revertir el sistema al estado de funcionamiento. Eso sería extremadamente eficiente en tiempo comparado con investigar manualmente las razones del problema y solucionarlo.


0

He estado programando durante casi medio siglo. Otra respuesta dice histórico y otra respuesta larga dice Múltiples discos físicos .

Quiero enfatizar que lo más probable es que múltiples discos físicos hayan comenzado la recomendación. Hace más de medio siglo, cuando no había particiones, era extremadamente común usar un disco físico separado para el sistema. La razón principal de esto es el movimiento físico de las cabezas y el giro de las unidades. Esas ventajas no existen para las particiones cuando la unidad física se usa a menudo para otras cosas.

También tenga en cuenta que Unix separa el sistema y los datos en particiones separadas. Hay muchas buenas razones para hacerlo, como se explica en muchas otras respuestas, pero para el rendimiento, las unidades físicas separadas son la justificación principal.


-1

La razón por la que solíamos hacer 2 particiones se debía a virus. Algunos virus solían sobrescribir el sector de arranque y el comienzo del disco.

Las copias de seguridad en las computadoras de los usuarios solían reducirse a una copia de todo el programa en un disquete. (En realidad, no es una copia de seguridad)

Entonces, cuando un virus "se comió" el comienzo del disco, generalmente solo el sistema tuvo que ser reinstalado.

Y si no había copias de seguridad, la recuperación de datos era más fácil si la segunda partición estaba intacta.

Entonces, si tiene copias de seguridad, este motivo no es válido.

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.