quizás todos los algoritmos principales / preferidos de interés para esta audiencia se hayan mencionado en este punto. sin embargo, algunos más merecen mención por su integridad. Y aquí es relevante algún análisis de lo que se considera un algoritmo significativo.
En los campos de CS e IT parece haber un fenómeno notado hace mucho tiempo en la IA llamado "mover los postes" . Este es un fenómeno psicológico en el que el campo avanza relativamente rápido, pero las personas se adaptan mentalmente rápidamente a "la nueva normalidad" y toman avances reales o incluso innovadores como mundanos o poco notables en retrospectiva, después de logrados, es decir, minimizados o minimizados. Esto se capta altamente en esta pregunta en la forma en que los algoritmos pasan de la I + D al "despliegue". citando al autor de la pregunta en comentarios posteriores:
De hecho, una fracción insignificante de todo el código que se escribe está implementando cualquier cosa que sea interesante desde un punto de vista algorítmico.
pero esto es problemático y básicamente es una redefinición centrada en TCS de la palabra "algoritmo". presumiblemente los algoritmos interesantes están avanzados. ¿eso significa que si un problema se reduce a un algoritmo avanzado, ya no es "interesante"? y "avanzado" es claramente un objetivo en movimiento. así que hay una manera de definir "algoritmos" de forma restringida o amplia . parece que la definición de TCS cambia en el contexto, pero tenga en cuenta que incluso en TCS, hay una tendencia hacia la definición amplia, por ejemplo, en la llamada "lente algorítmica" .
¡a veces los algoritmos más ubicuos también son los más pasados por alto! Internet y WWW es un gran entorno / casi ecología para algoritmos. todavía relativamente joven, con solo alrededor de 2 décadas (inventado ~ 1991), ha crecido de manera masiva y exponencial en un corto período de tiempo. El crecimiento del sitio WWW probablemente incluso ha superado la famosa ley exponencial de Moores.
Internet / WWW son compatibles con muchos algoritmos sofisticados. Internet tiene algoritmos de enrutamiento complejos integrados en los enrutadores (de nuevo alimentando a corporaciones multimillonarias como Cisco). alguna teoría avanzada es aplicable allí, por ejemplo, en algoritmos de enrutamiento . Estos algoritmos fueron objeto de investigación emergente, avanzada / de vanguardia hace décadas, sin embargo, ahora tan bien afinado y bien entendido que es algo invisible.
No debemos olvidar tan pronto que hace décadas, los principales investigadores ni siquiera estaban seguros de si el mundo de Internet funcionaba o si era posible (visto en la investigación inicial de cambio de paquetes, un nuevo patrón de diseño radical en el momento que se alejaba del cambio de circuito anterior), y Incluso hace unos años, existía el temor de que no se escalara en algún momento y comenzara a fallar debido a picos abrumadores en el volumen.
También utiliza detección / corrección de errores sofisticados . Internet probablemente sea el sistema más grande y tolerante a fallas jamás construido por humanos, aún en crecimiento.
A continuación, hay un caso sólido para hacer que los algoritmos que alimentan la WWW sean avanzados. Los servidores HTTP y web están altamente optimizados y también utilizan protocolos avanzados de seguridad / cifrado (HTTPS). La lógica de representación de una página web se ha vuelto extremadamente avanzada en HTML5 y CSS3 , junto con el lenguaje de programación Javascript .
el CSS relativamente nuevo tiene varios principios similares a la programación OOP , como la reutilización y la herencia. Hablando de composición tipográfica, TeX es un importante sistema de composición científica internamente complejo (no muy diferente a un lenguaje de programación) inventado por Knuth que ahora se puede representar en páginas web (y se utiliza en posiblemente cientos de miles de artículos científicos o más).
Otra área relativamente nueva de algoritmos que se construye en Internet, aún emergente, los basados en la inteligencia colectiva . El software stackexchange en sí mismo es un ejemplo de un sofisticado sistema de inteligencia colectiva. Las redes sociales también exhiben las características clave de la inteligencia colectiva y se agregan continuamente características para aumentar esa inteligencia (por ejemplo, los "Me gusta" de Facebook tienen solo unos pocos años). El campo de los sistemas de calificación se basa en algoritmos de filtrado colaborativos y sigue evolucionando en función de nuevas investigaciones y aplicaciones.
en resumen, todos los éxitos revolucionarios que transforman la experiencia humana diaria en realidad van mucho más allá de los "objetivos de campo". Como dice el título de la pregunta, todos los algoritmos centrales implementados . ahora tan ubicuo e invisible como para ser algo así como la expresión de TI, "parte de la fontanería".