Actualmente estamos desarrollando un sitio que actualmente tiene 8 millones de páginas únicas que crecerán a unos 20 millones de inmediato, y eventualmente a unos 50 millones o más.
Antes de criticar ... Sí, proporciona contenido único y útil. Continuamente procesamos datos sin procesar de registros públicos y al hacer un poco de depuración de datos, resúmenes de entidades y mapeo de relaciones, hemos podido generar contenido de calidad, desarrollando un sitio que es bastante útil y único, en parte debido a la amplitud de datos.
Su PR es 0 (nuevo dominio, sin enlaces), y nos estamos arañando a un ritmo de aproximadamente 500 páginas por día, lo que nos coloca en aproximadamente 30,000 páginas indexadas hasta el momento. A este ritmo, llevaría más de 400 años indexar todos nuestros datos.
Tengo dos preguntas:
- Es la tasa de indexación directamente correlacionada con PR, y con eso quiero decir que está lo suficientemente correlacionada como para que al comprar un dominio antiguo con buena PR nos lleve a una tasa de indexación viable (en el vecindario de 100,000 páginas por día).
- ¿Hay algún consultor SEO que se especialice en ayudar al proceso de indexación? Estamos de lo contrario va muy bien con SEO, en -página especialmente, además, la competencia por nuestra "cola larga" frases de palabras clave es bastante bajo, por lo que nuestros bisagras de éxito sobre todo en el número de páginas indexadas.
Nuestro principal competidor ha logrado aproximadamente 20 millones de páginas indexadas en poco más de un año, junto con una clasificación Alexa 2000-ish.
Calidades notables que tenemos en su lugar:
- la velocidad de descarga de la página es bastante buena (250-500 ms)
- sin errores (no hay errores 404 o 500 al ser arañado)
- Utilizamos las herramientas para webmasters de Google e iniciamos sesión diariamente
- URL amigables en su lugar
- Tengo miedo de enviar mapas del sitio. Algunas publicaciones de la comunidad SEO sugieren un nuevo sitio con millones de páginas y no hay relaciones públicas sospechosas. Hay un video de Google de Matt Cutts hablando de una incorporación por etapas de sitios grandes , también, para evitar un mayor escrutinio (aproximadamente a las 2:30 en el video).
- Los enlaces del sitio en los que se puede hacer clic ofrecen todas las páginas, no más de cuatro páginas de profundidad y, por lo general, no más de 250 (-ish) enlaces internos en una página.
- El texto de anclaje para enlaces internos es lógico y agrega relevancia jerárquicamente a los datos en las páginas de detalles.
- Anteriormente habíamos establecido la frecuencia de rastreo más alta en las herramientas para webmasters (solo una página cada dos segundos, máximo). Hace poco volví a "dejar que Google decida", que es lo que se recomienda.