Una de las ventajas de REST es la capacidad de almacenar en caché las solicitudes mediante cachés http tradicionales (suponiendo que se trata de solicitudes almacenables en caché).
Cuando tiene solicitudes individuales, más grandes, de uso menos frecuente y posiblemente diferentes (voy a buscar elementos a,b,c,d
esta vez y elementos la a,b,d,e
próxima vez), es más probable que la solicitud sea una falta de caché y expire de un caché que puede estar sentado en algún lugar entre usted y la fuente.
Dados los dos conjuntos de solicitudes mencionados anteriormente, la segunda solicitud puede tener una tasa de aciertos de caché del 75% y ser sustancialmente más rápida para obtener solo e
, en lugar de las cuatro cosas.
Tenga en cuenta que esto puede no ser evidente de inmediato para las personas que lo usan, ya que la persona que realiza el primer conjunto de solicitudes de pérdida de caché todavía tendrá las fallas de caché.
Esto no quiere decir que sería ideal en una conexión de red móvil en la que es menos probable que uno obtenga hits de caché no locales. Pero para los puntos calientes u otras situaciones wifi, los éxitos de caché podrían ser mucho más útiles.
Gran parte de esto, nuevamente, está sujeto a cómo funciona su aplicación. ¿Pide todos estos datos al inicio? ¿o estamos hablando de una carga de página donde las expectativas de tiempo de respuesta son diferentes?
Lo ideal sería probar esto para ver cómo se realiza su aplicación en una variedad de situaciones. Considere configurar una situación en la que haya vinculado su dispositivo móvil a una red wifi local que pueda monitorear (que es solo el primer éxito en Google) y simule una mala conexión a Internet para ver cómo funcionan realmente las cosas (o no) y cuál tiene el mejor rendimiento.