Tenemos una base de datos de contenido de 300 GB de tamaño. No hay problemas con las copias de seguridad después de cambiar a Lite Speed. Antes del cambio, veríamos una grave degradación del rendimiento con los sitios web.
Para el registro, NO queríamos tener una base de datos de contenido tan grande. Teníamos requisitos comerciales específicos sobre el intercambio de contenido que habría sido muy difícil de implementar si hubiéramos puesto el contenido en colecciones de sitios separadas.
Cuando comenzamos a funcionar, tuvimos problemas importantes de bloqueo con la base de datos durante el uso pico. Hemos rastreado esto hasta el uso del objeto CrossListQueryCache en SharePoint. Cambiamos de usar esa API y solucionó gran parte de nuestro rendimiento.
Escribí un pequeño artículo de blog con más información aquí .
Todavía vemos problemas de bloqueo con ciertos tipos de actualizaciones (eliminación de blobs> 20 MB), cambio de nombre de las webs (esto puede causar actualizaciones a muchos registros en la tabla AllUserData. Estamos trabajando con MS Support en casos específicos (es decir, eliminar elementos grandes de la papelera de reciclaje) Estos se remontan a la forma en que los procedimientos almacenados específicos en SharePoint están eliminando datos, pero todavía no tenemos una solución.
Personalmente, creo que los problemas ocurren después de obtener tantos registros en la tabla AllUserData y la forma más fácil para que MS comunique esto a las personas es decir mantenerse por debajo de 100 GB.
Sugiero hacer ping a las personas en MS IT ... He escuchado extraoficialmente que tienen un SharePoint Content DB> 800 GB.