Para responder a su pregunta de inmediato: No, la World Wide Web tal como la conocemos ahora no depende de HTTP. Nunca ha dependido de HTTP. Todo lo que requiere es un protocolo sobre un transporte confiable que un cliente pueda usar para solicitar un recurso de un servidor. Cualquier cosa con estos requisitos mínimos servirá. Utiliza HTTP ahora porque ese era el mejor protocolo disponible cuando la Web se estaba volviendo popular. Cuando aparece algo mejor que HTTP, como parece ser el caso con SPDY , entonces HTTP también se desvanecerá en la historia como protocolos antes de que lo haya hecho.
Sin embargo, depende del HTML y, en menor medida, de las diversas tecnologías que han crecido a su alrededor, como CSS, JavaScript, etc. Incluso el HTML 5 actual sería reconocible como HTML hace 20 años y la mayoría de los navegadores de esa época podrían analizarlo. , y un sitio web bien diseñado de hoy funcionará en los navegadores más antiguos conocidos (como un sitio web bien diseñado de hace 20 años funcionará en los navegadores actuales).
El resto de esta respuesta se extrae de mi experiencia y se puede omitir, pero ...
Hasta ahora, las respuestas existentes han citado principalmente referencias de hoy, lo cual es desafortunado, ya que Internet de hoy contiene muy poca información sobre los tiempos anteriores al "boom de las puntocom" de finales de los años noventa. Algunas de estas referencias no coinciden con mi experiencia: estuve en Internet años antes de que se abriera al público, y tenía una buena vista para ver el auge de la Web.
HTTP fue diseñado para ser un protocolo eficiente en la transferencia de páginas web y otros archivos hacia y desde servidores. Abordó varias deficiencias en FTP que lo convierten en una opción menos que completamente práctica para servir páginas web. En particular, en ese momento, el FTP se usaba principalmente en modo "activo", ya que los firewalls y NAT eran casi inexistentes. FTP tenía un modo "pasivo" desde 1985, pero no era realmente necesario hasta que grandes partes de Internet comenzaron a moverse detrás de sus cortinas de hierro. En cualquier modo, tener que abrir múltiples conexiones para transferir archivos era, en el mejor de los casos, ineficiente; HTTP podría superar drásticamente el FTP (o incluso Gopher), lo cual era importante cuando la conexión de casa de prácticamente todos era de acceso telefónico, y un acceso telefónico muy lento .
Y si bien algunas páginas web se sirvieron a través de Gopher, esto se debió principalmente a que los clientes web comunes de la época admitían varios protocolos: HTTP, FTP y Gopher. Tenían que hacerlo para poder compartir la mente. En este momento, "buscar en Internet" se realizó con un programa llamado Archie, y que solo le informaba sobre los archivos en los sitios FTP. Luego tuvo que usar Veronica o Jughead para buscar en Gopherspace. También hubo WAIS, quizás el primer motor de búsqueda de texto completo significativo, pero lo que Wikipedia no le dirá al respecto es que era una basura muy modificada y no podía encontrar nada a menos que supiera en qué sitio buscarlo. empezar con.
Todavía recuerdo, en 1995, más o menos, que mantuve conversaciones durante varias semanas con un investigador del SIDA sobre la Web, y traté de persuadirlo de que debería probar esta cosa mosaica. Lo que finalmente lo convenció es que Johns Hopkins acababa de crear una base de datos médica que necesitaba en la Web, a través de HTTP, y un navegador web era la única forma de acceder a ella. Tuve muchas conversaciones con varias personas en líneas similares.
En aquel entonces, con el fin de establecerse, los agentes de usuario web comúnmente admitirían FTP y Gopher, para que las personas pudieran usar un solo programa para ver o descargar cualquier recurso a través de cualquiera de esos protocolos. Funcionó y la Web despegó, pero incluso descargar una página web de solo texto fue dolorosamente lenta a 2400 bps, y muchas personas (incluido yo mismo) todavía no tenían nada mejor cuando la Red finalmente se abrió al público. A menudo era más rápido hacer telnet en su cuenta shell de Unix y ejecutar lynx
allí o telnet al público lynx
que ejecutaba la Universidad de Kansas. La universidad tenía mucho ancho de banda, y de esa manera solo tenía que ver una pantalla a la vez (le tomó alrededor de cuatro segundos actualizar un terminal de 80x24 a 2400 bps).
Entonces, desde un solo programa, ya sea lynx
, mosaic
o el cliente de referencia que CERN escribió pero nadie realmente usó, se podía acceder a prácticamente cualquier cosa en Internet en ese momento, ya que estos programas generalmente ocultaban o desestimaban el transporte específico que se estaba utilizando. . (Es decir, nadie miró su barra de direcciones incluso entonces. Y Lynx no mostraría la URL actual a menos que usted la solicite específicamente).
Como HTTP era más rápido y flexible que otros protocolos, y HTML era claramente un lenguaje más poderoso para representar un documento que el que estaba disponible anteriormente, su despegue era casi inevitable. Gopher nunca tuvo una oportunidad; existió en forma significativa por solo unos pocos años. Y FTP sigue siendo útil, ya que es un poco mejor en la transferencia de archivos de gran tamaño o estructuras de directorios completas a la vez (suponiendo que tiene tar
y gzip
y conoce los secretos encantamientos) y hasta hace poco era mejor para Carga de datos.
El punto que estoy tratando de conducir a casa aquí es que la Web es independiente del transporte. Tenía que ser para comenzar, y el hecho de que sea así significa que seguramente seguirá en uso durante décadas, o incluso siglos, por venir.