Nuevos inventos significativos en informática desde 1980


561

Esta pregunta surgió de los comentarios sobre diferentes tipos de progreso en la informática en los últimos 50 años más o menos.

Algunos de los otros participantes me pidieron que lo planteara como una pregunta a todo el foro.

La idea básica aquí no es criticar el estado actual de las cosas, sino tratar de comprender algo sobre el progreso de proponer nuevas ideas y principios fundamentales.

Afirmo que necesitamos ideas realmente nuevas en la mayoría de las áreas de la informática, y me gustaría saber cuáles son importantes y poderosas que se hayan hecho recientemente. Si realmente no podemos encontrarlos, entonces deberíamos preguntar "¿Por qué?" y "¿Qué deberíamos estar haciendo?"


77
Jeff Atwood confirmó que el usuario "Alan Kay" es EL "Alan Kay". Ya sabes, el tipo que trabajaba para esa compañía de máquinas copiadoras ... ;-) es.wikipedia.org/wiki/Alan_Kay
splattne

1
Vi este video: video.google.com/videoplay?docid=-533537336174204822 - Un video histórico (1979) sobre el desarrollo del Dynabook, Children and Computers y mucho más presentado por Alan Kay. Cosas INCREÍBLES hechas antes de 1970 - especialmente la parte del "
Bloc de

2
dependiendo de su propia definición, la respuesta podría ser cualquier cosa, desde "ninguno" hasta una enumeración de todas las tecnologías posibles. Y todas esas respuestas serían correctas o incorrectas en función de la definición de "una nueva idea" los usos lector / observador ...
Emile Vrijdags

3
Después de ver todas las respuestas aquí: ¡Dios mío! ¿No hemos hecho nada en los últimos 30 años?
Jeremy Powell el

2
@Will: Por extraño que parezca, creo que recientemente me enteré de una respuesta interesante a esta pregunta: algoritmos de agrupación rápida . DBSCAN es el estado del arte para mucho de esto (O (n log n) en el número de puntos en el conjunto de datos), y data de 1996. Por desgracia, con la pregunta cerrada no me tomaré el tiempo para leer las muchas respuestas para saber si alguien me ganó.
dmckee --- ex gatito moderador el

Respuestas:


311

La Internet misma es anterior a 1980, pero la World Wide Web ("hipertexto distribuido a través de mecanismos simples") tal como lo propuso e implementó Tim Berners-Lee comenzó en 1989/90.

Si bien la idea del hipertexto había existido antes ( Nelson Xanadu había intentado implementar un esquema distribuido), la WWW era un nuevo enfoque para implementar un sistema distribuido de hipertexto. Berners-Lee combinó un protocolo simple de cliente-servidor, lenguaje de marcado y esquema de direccionamiento de una manera poderosa y fácil de implementar.

Creo que la mayoría de las innovaciones se crean para volver a combinar las piezas existentes de una manera original. Cada una de las piezas de la WWW había existido de alguna forma antes, pero la combinación era obvia solo en retrospectiva.

Y sé con certeza que lo está utilizando en este momento.


26
1 para la más obvia, pero también el más fácil de olvidar, porque todo lo que se da por supuesto :)
PolyThinker

20
No estoy usando la World Wide Web en este momento. Estoy usando una serie de tubos conocidos como Internet, logrados a través de Google.
Robert S.

13
@bruceatk: el hipertexto es una implementación de texto. El texto fue inventado en 3500 a. C.
Portman el

1
@bruceatk: No creo que haya escrito sobre la WWW hasta 1989. w3.org/People/Berners-Lee
Portman

2
@splattne: Y pensar se ha convertido en búsqueda
u0b34a0f6ae

235

Free Software Foundation (establecida en 1985)

Incluso si no es un defensor incondicional de su filosofía, las ideas que han estado impulsando, de software libre, de código abierto, han tenido una influencia sorprendente en la industria del software y el contenido en general (por ejemplo, Wikipedia).


99
Concuerdan en que FSF ha sido muy influyente, pero existe una tendencia entre sus defensores a defender el "pensamiento grupal". Muchos FSF no pueden aceptar que Apple OSX y MS Windows sean mucho mejores que cualquier sistema operativo de código abierto para el usuario promedio. Nadie quiere admitir eso.
RussellH

32
El propósito completo de la FSF es promover software que todos puedan usar, modificar y redistribuir libremente. OSX y Windows no son "mejores" en esto por ninguna definición.
Adam Lassek

55
@RussellH: estás confundiendo el software de "código abierto" y "libre (como en Freedom)". Su comentario, de hecho, ilustra precisamente por qué la distinción es importante. Pero de todos modos, Firefox es mejor que Internet Explorer y Safari, y es más importante para los usuarios que Windows vs MacOS vs Linux.
niXar

8
Janie, no tienes que ser partidario para ver que los principios que están impulsando han tenido un efecto importante en la industria. No me interesa ser arrastrado a una discusión sobre si la FSF es comunista o si debe adoptar algunos principios comunistas.
Oddthinking

99
Invención legal, no invención informática.
Charles Stewart

150

Creo que es justo decir que en 1980, si usabas una computadora, o te pagaban por eso o eras un geek ... entonces, ¿qué ha cambiado?

  • Impresoras y autoedición a nivel de consumidor . Significaba que no necesitaba una imprenta para hacer material impreso de gran volumen y alta calidad. Eso fue grande , por supuesto, hoy en día lo damos por sentado por completo, y en su mayoría ni siquiera nos molestamos con la parte de impresión porque todos están en línea de todos modos.

  • Color . Seriamente. Las pantallas a color marcaron una gran diferencia en la percepción de los no geeks de juegos y aplicaciones. De repente, los juegos parecían menos trabajo duro y más como mirar televisión, lo que abrió las puertas a Sega, Nintendo, Atari y otros para llevar los juegos de consumo al hogar.

  • Compresión de medios (MP3 y archivos de video). Y un montón de cosas, como TiVO e iPod, que ya no consideramos computadoras porque son muy ubicuas y fáciles de usar. Pero son.

El hilo conductor aquí, creo, es algo que alguna vez fue imposible (hacer documentos impresos; reproducir imágenes en color con precisión; enviar mensajes a todo el mundo en tiempo real; distribuir material de audio y video), y luego era costoso debido al equipo y la logística involucrado, y ahora es de nivel de consumidor. Entonces, ¿qué están haciendo las grandes corporaciones ahora que solía ser imposible pero que podría ser genial si podemos encontrar la manera de hacerlo pequeño y barato?

Cualquier cosa que todavía implique transporte físico es interesante de ver. La videoconferencia no ha reemplazado las reuniones reales (todavía), pero con la tecnología adecuada, aún podría hacerlo. Algunos viajes recreativos podrían eliminarse mediante un entorno inmersivo sensorial completo: el cine en casa es un ejemplo trivial; otro es el "campo de golf virtual" en un edificio de oficinas en Soho, donde juegas 18 hoyos de golf real en un campo simulado.

Sin embargo, para mí, la próxima gran cosa será la fabricación. Haciendo cosas. Cucharas, guitarras, sillas, ropa, autos, azulejos y demás. Cosas que aún dependen de una infraestructura de fabricación y distribución. Ya no tengo que ir a una tienda a comprar una película o un álbum, ¿cuánto tiempo hasta que no tenga que ir a la tienda por ropa y utensilios de cocina?

Claro, están ocurriendo desarrollos interesantes con pantallas OLED y GPS y contenedores de banda ancha móvil e IoC y secuencias de comandos y "la nube", pero todavía son formas nuevas y novedosas de poner imágenes en una pantalla. Puedo imprimir mis propias fotos y escribir mis propias páginas web, pero quiero poder fabricar una canasta de lino que encaje exactamente en ese rincón al lado de mi escritorio, y un soporte de montaje para pegar mi unidad FX de guitarra a mi escritorio, y algo por sujetar mi teléfono celular al manillar de mi bicicleta.

¿No está relacionado con la programación? No ... pero en 1980, tampoco lo fue la producción de sonido. O distribución de video. O enviando mensajes a sus familiares en Zambia. Piensa en grande, gente ... :)


1
Creo que la compresión de medios no es un concepto nuevo (se remonta al trabajo de Shannon en los años 50), simplemente se vuelve factible con un hardware mejorado (lo suficientemente rápido, capaz de reproducir los medios).
Kornel

Tendría que estar de acuerdo con que la fabricación es algo que creo que puede ser una de las próximas grandes cosas. Cuando las "impresoras" de objetos se vuelven convencionales (impresoras que pueden replicar elementos físicos simples que son duraderos) creo que estaremos allí.
Andy Webb el

También sería genial escanear elementos existentes para poder hacer reemplazos. En muchas ocasiones tuve que comprar un tornillo extraño o una pieza para reemplazar uno que se rompió en la casa o en mi bicicleta. Con dicho sistema, podría escanear la parte anterior, repararla en un software y luego crear el reemplazo.
Andy Webb

44
La publicación de escritorio y la impresión de alta calidad se inventaron en Xerox PARC en los años 70, algunos de los Altos en ese entonces también tenían pantallas a color de alta calidad. El Internet es anterior a 1980. Medios de compresión anterior a 1980. La pregunta es acerca de lo que las nuevas tecnologías fundamentales se han inventado desde 1980
Alan Kay

3
Usted señor, es un visionario. No dejes que el hombre te deprima. Las impresoras de 'impresión' son la próxima gran revolución.
Waylon Flinn

137

Gestión de paquetes y control de revisiones distribuidas.

Estos patrones en la forma en que se desarrolla y distribuye el software son bastante recientes y todavía están comenzando a tener un impacto.

Ian Murdock ha llamado a la gestión de paquetes "el mayor avance individual que Linux ha traído a la industria". Bueno, lo haría, pero tiene un punto. La forma en que se instala el software ha cambiado significativamente desde 1980, pero la mayoría de los usuarios de computadoras aún no han experimentado este cambio.

Joel y Jeff han estado hablando sobre el control de revisión (o control de versiones, o control de fuente) con Eric Sink en el Podcast # 36 . Parece que la mayoría de los desarrolladores aún no se han puesto al día con los sistemas centralizados , y DVCS es ampliamente visto como misterioso e innecesario.

De la transcripción del Podcast 36 :

0:06:37

Atwood: ... Si asumes, y esta es una gran suposición, que la mayoría de los desarrolladores han dominado un poco el control fundamental de la fuente, lo que creo que no es cierto, francamente ...

Spolsky: No. La mayoría de ellos, incluso si lo tienen, es el check-in, check-out lo que entienden, pero ramificarse y fusionarse, eso los confunde.


1
Si uno debe contar como un nuevo invento significativo, es git.
hasen

8
Hasen j: git es un DCMS fantástico, sin embargo, hubo muchos otros implementados antes de que git, git, sea una nueva implementación significativa de una idea.
Arafangion 01 de

+1 para la gestión de paquetes. Aún así, una de las cosas más importantes que Linux / BSD tiene que tener sobre la cabeza de todos los demás, aunque el resto está llegando allí (solo muy lentamente).
nuevo123456

Incluso los sistemas de control de revisiones basados ​​en servidores son desarrollos posteriores a 1980, y pasar de tener el estado actual a tener también la historia del estado ... es un cambio colosal y sutil.
Donal Fellows

El control de revisión distribuido es el nombre incorrecto. A nadie le importa si su sistema está centralizado o no. Lo importante es si realiza un seguimiento de los conjuntos de cambios o las versiones. Pero la mayoría de las veces, se unen (GIT, Mercurial), lo que confunde a todos. Joel Spolsky lo dijo él mismo en una publicación de blog :With distributed version control, the distributed part is actually not the most interesting part.
Benjamin Crouzier

123

BitTorrent . Cambia por completo lo que antes parecía una regla obviamente inmutable: el tiempo que le toma a una sola persona descargar un archivo a través de Internet aumenta en proporción al número de personas que lo descargan. También aborda las fallas de las soluciones anteriores de igual a igual, particularmente en torno a las "sanguijuelas", de una manera que es orgánica para la solución misma.

BitTorrent convierte elegantemente lo que normalmente es una desventaja, muchos usuarios que intentan descargar un solo archivo simultáneamente, en una ventaja, distribuyendo el archivo geográficamente como una parte natural del proceso de descarga. Su estrategia para optimizar el uso del ancho de banda entre dos pares desalienta las sanguijuelas como un efecto secundario: es en el mejor interés de todos los participantes forzar la limitación.

Es una de esas ideas que, una vez que alguien más la inventa, parece simple, si no obvio.


Es cierto que, aunque BitTorrent puede ser algo diferente / mejorado, la nueva invención significativa realmente debería ser la distribución P2P, en lugar de cualquier implementación específica como BitTorrent.
Ilari Kajaste

10
Estoy en desacuerdo. P2P no es nada nuevo, es más antiguo que USENET. Las aplicaciones pre-bitTorrent "P2P" para el escritorio (Kazaa y similares) simplemente reempacan el concepto cliente-servidor, agregando un directorio central dinámico de servidores. Cada cliente "par" se conecta a otro servidor "par" para transferir un archivo. El hecho de que un solo nodo haga ambas cosas es antiguo (al menos para los sistemas anteriores a Windows). El protocolo bitTorrent es (AFAIK) una forma completamente nueva de transferir archivos, que aprovecha múltiples sistemas para transferir un archivo entre sí de una manera verdaderamente distribuida.
Kief

77
@JL: En teoría, la descarga directa es más rápida, pero no en la práctica. Con una sembradora y un líder, no debería haber ninguna diferencia. Tan pronto como agregue otro líder, ese líder puede comenzar a tomar piezas de quien tenga una conexión más rápida (incluso si el cliente con la conexión más rápida no tiene el archivo completo). Con una descarga directa, para aprovechar la conexión más rápida, primero tendrá que esperar a que el cliente finalice la descarga antes de poder comenzar.
Peter Di Cecco

1
Creo que la mejor pregunta es cuánto ancho de banda ahorras al alojar un torrent y sembrarlo con lo que habría sido un cuadro de descarga directa. Solo las compañías como Blizzard lo saben ahora, y no los he visto hablar números. Sin una 'súper semilla', los torrents dependerán de los usuarios para la siembra, que simplemente no funciona con conexiones asíncronas y personas que no desean dejar su computadora encendida y corriente arriba saturada.
semi

66
@JL: ¿los torrents son más lentos que la descarga directa? Mi experiencia "práctica" dice diferente; intente descargar Eclipse en ambos sentidos.
Dean J

120

La inferencia tipo Damas-Milner (a menudo llamada inferencia tipo Hindley-Milner) se publicó en 1983 y desde entonces ha sido la base de todos los sofisticados sistemas de tipo estático. Era una idea genuinamente nueva en lenguajes de programación (admitida en base a ideas publicadas en la década de 1970, pero no se hizo práctica hasta después de 1980). En términos de importancia, lo planteé con Self y las técnicas utilizadas para implementar Self; en términos de influencia no tiene igual. (El resto del mundo OO todavía está haciendo variaciones en Smalltalk o Simula).

Las variaciones en la inferencia de tipos todavía se están desarrollando; la variación que más destacaría es el mecanismo de clase de tipo de Wadler y Blott para resolver la sobrecarga, que luego se descubrió que ofrece mecanismos muy potentes para la programación a nivel de tipo. El final de esta historia aún se está escribiendo.


3
Los sistemas de tipo estático +1 son un gran paso enorme en el desarrollo de software. No podría estar más de acuerdo con esta respuesta.
Jeremy Powell el

104

Aquí hay un complemento para la reducción de mapas de Google , no solo para sí mismo, sino como un proxy para el logro de Google de ejecutar servicios rápidos y confiables en la parte superior de granjas de máquinas de productos no confiables. Definitivamente un invento importante y totalmente diferente de los enfoques de mainframe de hierro grande para la computación de peso pesado que gobernó el gallinero en 1980.


10
map-reduce no es una invención de Google en absoluto.
akappa

20
Soy un programador funcional. Mi primer idioma fue APL. Su punto, exactamente?
Norman Ramsey

15
¿Entonces (mapcar fl) y (reduce fl) en Lisp se ejecutan automáticamente en números arbitrarios de máquinas de productos básicos, manejando todas las comunicaciones, fallas y reinicios?
Jared Updike

16
La reducción de mapas de Google no tiene mucho que ver con la reducción de mapas funcional.
aehlke

91

Etiquetado , la forma en que se clasifica la información. Sí, los pequeños cuadros de texto debajo de cada pregunta.

Es sorprendente que tardó unos 30 años en inventar el etiquetado. Utilizamos listas y tablas de contenido; Utilizamos cosas que están optimizadas para libros impresos.

Sin embargo, 30 años es mucho más corto que el tiempo que la gente necesitaba para darse cuenta de que los libros impresos pueden estar en un formato más pequeño. La gente puede tener libros en las manos.

Creo que el concepto de etiquetado está subestimado entre los chicos principales de CS. Toda la investigación se centra en el procesamiento del lenguaje natural (enfoque de arriba hacia abajo). Pero el etiquetado es el primer idioma en que las computadoras y las personas pueden entender bien. Es un enfoque ascendente que hace que las computadoras usen lenguajes naturales.


1
De acuerdo, esto se correlaciona con mi afirmación de que lo único nuevo que se me ocurre es el marcado sintáctico para consultar entre muchos dominios, pero usted lo dijo mejor.
dkretz

40
Echa un vistazo a Engelbart ca 1962-72
Alan Kay

Para mí, el etiquetado es muy parecido a los primeros motores de búsqueda que usaban la etiqueta meta = palabras clave (eso también es posterior a los 80, solo estoy argumentando que no vale la pena mencionar el etiquetado).
Kornel

1
Si bien el etiquetado en informática es un enfoque relativamente nuevo, el etiquetado también es un concepto heredado de los libros; en los libros, se llama indexación.
Domchi 01 de

66
las bibliotecas han estado usando "etiquetas" desde ... bueno, no lo sé, pero desde hace mucho tiempo. Piense en las tarjetas de libros (lo siento, no estoy seguro de cómo se llaman en inglés) etiquetadas "libros sobre xxx".
nico

80

Creo que estamos viendo esto de manera incorrecta y sacando conclusiones equivocadas. Si hago esto bien, el ciclo continúa:

Idea -> primera implementación -> adopción minoritaria -> masa crítica -> producto básico

Desde la primera idea hasta la mercancía, a menudo tiene siglos, suponiendo que la idea llegue a esa etapa. Puede que Da Vinci haya dibujado algún tipo de helicóptero en 1493, pero tardó unos 400 años en conseguir una máquina real capaz de levantarse del suelo.

Desde la primera descripción de William Bourne de un submarino en 1580 hasta la primera implementación en 1800, tiene 220 años y los submarinos actuales todavía están en una etapa de infancia: casi no sabemos nada de viajes bajo el agua (con 2/3 del planeta bajo el mar, piense en el potencial inmobiliario;).

Y no se sabe que no hubo ideas anteriores, mucho más antiguas de las que nunca habíamos oído hablar. Según algunas leyendas, parece que Alejandro Magno usó algún tipo de campana de buceo en 332 aC (que es la idea básica de un submarino: un dispositivo para transportar personas y suministro de aire debajo del mar). Contando eso, estamos viendo 2000 años desde la idea (incluso con un prototipo básico) hasta el producto.

Lo que digo es que buscar hoy implementaciones, y mucho menos productos, que ni siquiera eran ideas anteriores a 1980 es ... apuesto a que el algoritmo de "clasificación rápida" fue utilizado por algún empleado de archivos sin nombre en la antigua China. ¿Y qué?

Hubo computadoras conectadas en red hace 40 años, claro, pero eso no se compara con Internet de hoy. La idea / tecnología básica estaba allí, pero independientemente de que no pudieras jugar un juego de Warcraft en línea.

Afirmo que necesitamos ideas realmente nuevas en la mayoría de las áreas de la informática, y me gustaría saber cuáles son importantes y poderosas que se hayan hecho recientemente. Si realmente no podemos encontrarlos, entonces deberíamos preguntar "¿Por qué?" y "¿Qué deberíamos estar haciendo?"

Históricamente, nunca hemos podido "encontrarlos" tan cerca de la idea, tan rápido. Creo que el ciclo se está acelerando, pero la informática aún es muy joven.

Actualmente, estoy tratando de descubrir cómo hacer un holograma (del tipo Star Wars, sin ningún tipo de soporte físico). Creo que sé cómo hacerlo funcionar. Ni siquiera he reunido las herramientas, los materiales, la financiación y, sin embargo, incluso si tuviera éxito en algún grado, la idea real ya tendría varias décadas, como mínimo, y las implementaciones / tecnologías relacionadas se han utilizado durante el mismo tiempo. .

Tan pronto como comience a enumerar productos reales, puede estar bastante seguro de que los conceptos y las primeras implementaciones existieron hace un tiempo. No importa

Podría argumentar con alguna razón que nada es nuevo, nunca, o que todo es nuevo, siempre. Esa es la filosofía y ambos puntos de vista se pueden defender.

Desde un punto de vista práctico, la verdad se encuentra en algún punto intermedio. La verdad no es un concepto binario, maldita sea la lógica booleana.

Los chinos pueden haber ideado la imprenta hace un tiempo, pero solo han pasado unos 10 años que la mayoría de las personas pueden imprimir fotos en color decentes en casa por un precio razonable.

La invención no está en ninguna parte ni en todas partes, según sus criterios y marco de referencia.


1
+1. Eche un vistazo, por ejemplo, en el iPad;) Vea stackoverflow.com/questions/432922/…
VonC

44
Si tan solo hubiera un favorito. etiqueta de respuesta ... si solo hubiera una opción para dar 2 votos a favor ...
tshepang

Gran respuesta. Tal vez deberíamos preguntarnos qué nuevas ideas ha habido en los últimos 30 años (no nuevos productos / inventos). Y dado que es demasiado difícil decir si serán "significativos" o revolucionarios antes de que se construyan ... tal vez podamos especular y luego decidir dónde gastar más energía.
mpen

3
Ha habido innumerables nuevas ideas sorprendentes en los últimos 30 años, pero no ha habido necesariamente tiempo para ver cuáles son importantes. Elija cualquier campo de la informática y simplemente hojee la investigación publicada en el último año, y no encontrará escasez de nuevas ideas, desde pequeñas mejoras hasta revisiones completas. Sin embargo, la década de 1980 y antes parecen tan revolucionarias y llenas porque esas ideas ahora han dado sus frutos y son ubicuas, por lo que parecen significativas. Tendremos esta misma discusión en 30 años, cuando las ideas de ahora en adelante se hayan reducido a inventos maravillosos.
Perrako

@ Mark: ¿Qué califica como una "nueva idea"? Cada idea, pieza de código, organismo biológico tiene un contexto, que desde un punto de vista no haría nada realmente nuevo. El problema con la pregunta del profesor Kay es que la filosofía detrás del incendio que él y sus colegas en Xerox Parc (y Engelbart 10 años antes que él) encendieron en la industria tecnológica / informática ha estado ardiendo como un incendio descontrolado y ha cambiado el mundo, el contexto. Verdaderamente nuevas ideas por ahí tiene ningún impacto por lo que ninguno de nosotros hemos oído hablar de ellos - los sistemas operativos escritos con las pruebas de su corrección y el núcleo de seguridad, no ARM, arquitecturas no-x86, etc
Jared Updike

68

Algoritmo de Page Rank de Google . Si bien podría verse como solo un refinamiento de los motores de búsqueda que rastrean la web, quisiera señalar que también fueron desarrollados después de 1980.


"Solo un refinamiento" es a menudo un oxímoron. En este caso, el refinamiento es la tecnología. Internet era un lugar mucho más aterrador antes de que Google trajera ese algoritmo de clasificación de página (y entregara los resultados rápidamente y sin desorden de páginas, y todas las demás dragas que solíamos tener que sufrir para usar otros motores de búsqueda en el pasado).
David Berger

19
No creo que sepas lo que es un oxímoron.
Jason

1
¿Te acuerdas de altavista y esa pequeña compañía desconocida: yahoo?
Esteban Küber

@voyager: Hotbot y Lycos tampoco fueron malos.
Dean J

2
@martin es un oxímoron sin oxímoron . la contradicción está en la definición: ninjawords.com/oxymoron
Jason

66

DNS, 1983, y avances dependientes como la resolución de host de correo electrónico a través de registros MX en lugar de bang-path *estremecimiento*

Zeroconf funciona sobre DNS, 2000. Conecto mi impresora a la red y mi computadora portátil lo ve. Comienzo un servidor web en la red y mi navegador lo ve. (Suponiendo que transmitan su disponibilidad).

NTP (1985) basado en el algoritmo de Marzullo (1984). Tiempo preciso sobre redes nerviosas.

La rueda de desplazamiento del ratón, 1995. Usar ratones sin él se siente tan primitivo. Y no, no es algo que el equipo de Engelbart pensó y olvidó mencionar. Al menos no cuando le pregunté a alguien que estaba en el equipo en ese momento. (Fue en algún evento de Engelbart en 1998 más o menos. Pude manejar uno de los primeros ratones).

Unicode, 1987, y sus avances dependientes para diferentes tipos de codificación, normalización, texto bidireccional, etc.

Sí, es bastante común que las personas usen los 5 de estos todos los días.

¿Son estas "ideas realmente nuevas"? Después de todo, había ratones, había codificaciones de caracteres, había un cronometraje de la red. Dígame cómo puedo distinguir entre "nuevo" y "realmente nuevo" y responderé esa pregunta por usted. Mi intuición dice que estos son lo suficientemente nuevos.

En dominios más pequeños hay avances más recientes fácilmente. En bioinformática, por ejemplo, Smith-Waterman (1981) y más especialmente BLAST (1990) efectivamente hacen posible el campo. Pero parece que está pidiendo ideas que son muy amplias en todo el campo de la informática, y la fruta de bajo perfil se recoge primero. Así es siempre con un nuevo campo.


63

¿Qué pasa con las cámaras digitales?

Según Wikipedia, la primera cámara digital verdadera apareció en 1988, y las cámaras digitales del mercado masivo se hicieron asequibles a fines de la década de 1990.


Pero la idea, la invención y las patentes estaban allí a principios de los 70 (Ver la sección sobre "Desarrollo temprano")
saschabeaumont

10
¿Cámara digital? Uno se pregunta, a juzgar por los votos positivos, lo que la gente entiende hoy por el término "computación".
MaD70

1
Imágenes es en lo que se basa la informática de consumo moderna. Sin una cámara web, una cámara réflex de apuntar y disparar o cara (para periódicos), los consumidores modernos realmente no necesitarían computadoras.
Marius

14
@ MaD70: Creo que no te gusta mucho la fotografía, ¿verdad? Solo por nombrar algunos: reconocimiento automático de rostros, enfoque automático, "modo panorámico", balance de blancos automático ... definitivamente recae en la informática.
nico

66
Lo sentimos, el primer prototipo de cámara digital fue hecho por Kodak en 1975 aparentemente. pluggedin.kodak.com/post/?ID=687843
Mark Ransom

50

Lenguajes de sombreado modernos y la prevalencia de las GPU modernas.

La GPU también es una supercomputadora paralela de bajo costo con herramientas como CUDA y OpenCL para un código paralelo rápido de alto nivel . Gracias a todos los jugadores que están bajando los precios de estas maravillas de hardware cada vez más impresionantes. En los próximos cinco años, espero que cada computadora nueva vendida (y los iPhones también) tengan la capacidad de ejecutar código masivamente paralelo como una suposición básica, muy similar al color de 24 bits o al modo protegido de 32 bits.


Intentalo. No te va a gustar. Los sistemas multinúcleo son mucho más rápidos para la mayoría de los problemas del mundo real. YMMV. Bueno para gráficos, y no mucho más.
xcramps

Hay una razón por la que se llaman GPU y no PPU ... (unidades de procesamiento en paralelo). La mayoría de las personas no tienen la paciencia y / o habilidades para escribir un buen código para ellos. Aunque hay una cantidad cada vez mayor de proyectos de investigación que están explorando el uso de GPUS para fines no gráficos.
RCIX

3
Lo intenté. Me gustó. Puedo ejecutar todo mi código de Matlab en la GPU, sin modificaciones en el código fuente, aparte de algunos cambios tipográficos que puede hacer con una búsqueda en lugar. Google "Computación GPU Matlab".
Contango

3
Estoy de acuerdo con el OP. La canalización programable, si bien algo que ahora podríamos dar por sentado, cambió por completo el mundo de los gráficos, y parece que podría seguir cambiando otras partes del mundo de la programación. @xcramps: creo que me falta algo; La última vez que verifiqué, las GPU eran sistemas multinúcleo. Solo con muchos más núcleos. Algo así como ... supercomputadoras. Pero supongo que esos no son realmente siendo utilizado para cualquier cosa en el mundo real ...
Perrako

Dos años después (no 5 como dije) y los dispositivos móviles que se envían con OpenCL están en el horizonte: macrumors.com/2011/01/14/…
Jared Updike

43

La compilación JIT se inventó a fines de la década de 1980.


Bueno, todo el trabajo sobre la implementación del lenguaje Self (que fue completamente compilado por JIT) fue sorprendente, y su utilidad se puede ver hoy para Javascript dentro de Google V8. Y eso es de finales de los 80 y principios de los 90.
Blaisorblade

77
La primera vez que vi esta idea fue en el último capítulo del libro Anatomy of Lisp de John Allen, publicado en los años 70. Dio una referencia a una tesis doctoral de los años 70 como autor.
Darius Bacon el

Tal vez deberíamos refinarlo a "compilación JIT adaptativa basada en perfil" como Self JIT o Suns 'Java Hotspot
kohlerm

34
Una de las tesis doctorales a principios de la década de 1970 que tenía JIT fue la de Jim Mitchell en CMU; luego fue a PARC
Alan Kay el

2
Nori, KV; Ammann, U .; Jensen; Nageli, H. (1975). Las notas de implementación del compilador Pascal P. Zúrich: Eidgen. Tech. Hochschule (Gracias wikipedia)
Arafangion

42

Para abordar las dos preguntas sobre "¿Por qué la muerte de nuevas ideas" y "qué hacer al respecto"?

Sospecho que gran parte de la falta de progreso se debe a la afluencia masiva de capital y la riqueza arraigada en la industria. Suena contradictorio, pero creo que se ha convertido en una sabiduría convencional que cualquier idea nueva tiene una oportunidad; Si no lo logra al primer intento, no puede volver. Lo compra alguien con intereses arraigados, o simplemente FALLOS, y la energía se va. Un par de ejemplos son las tabletas y el software de oficina integrado. Newton y varios otros tenían un potencial real, pero terminaron (por desgaste competitivo y mal juicio) despilfarrando sus derechos de nacimiento, matando categorías enteras. (Me gustaba especialmente el Marco de Ashton Tate; pero todavía estoy atascado con Word y Excel).

¿Qué hacer? Lo primero que viene a la mente es Wm. El consejo de Shakespeare: "matemos a todos los abogados". Pero ahora están demasiado bien armados, me temo. De hecho, creo que la mejor alternativa es encontrar una iniciativa de código abierto de algún tipo. Parecen mantener la accesibilidad y la mejora incremental mejor que las alternativas. Pero la industria se ha vuelto lo suficientemente grande como para que sea necesario algún tipo de mecanismo de colaboración orgánica para obtener tracción.

También creo que hay una dinámica que dice que los intereses arraigados (especialmente las plataformas) requieren una cantidad sustancial de cambio (abandono) para justificar las continuas fuentes de ingresos; y esto absorbe mucha energía creativa que podría haberse gastado de mejor manera. Mire cuánto tiempo pasamos pisando agua con la última versión de Microsoft o Sun o Linux o Firefox, haciendo cambios en los sistemas que en su mayor parte ya funcionan bien. No es porque sean malvados, solo está integrado en la industria. No existe el equilibrio estable; Todos los mecanismos de retroalimentación son positivos, favoreciendo el cambio sobre la estabilidad. (¿Alguna vez vio una función retirada o un cambio retraído?)

La otra pista que se ha discutido sobre SO es el Síndrome de Skunkworks (ref: Geoffrey Moore): la innovación real en grandes organizaciones casi siempre (90% +) aparece en proyectos no autorizados que surgen espontáneamente, impulsados ​​exclusivamente por iniciativas individuales o de grupos pequeños ( y la mayoría de las veces se oponen las jerarquías formales de gestión). Entonces: Pregunta Autoridad, Buck the System.


Me encantó Framework, y todavía puedes comprarlo, pero es caro.
Norman Ramsey

77
Siempre es más fácil tener nuevas ideas en una nueva área de conocimiento, por lo que una gran cantidad de las ideas importantes surgieron en los años cincuenta y sesenta. Ahora podemos hacer la mayoría de ellos mucho mejor ahora.
David Thornley el

66
Creo que esta respuesta y los comentarios están muy bien puestos.
Alan Kay

55
@David: "mucho mejor ahora". Y más barato Y mas pequeño. Lo que permite nuevas formas de hacer otras cosas mejor. Por ejemplo, 10 canciones -> 1,000 canciones -> 1,000 álbumes en mi bolsillo, seguro que es una cuestión de grado, pero cambia todo, incluso si alguien antes de 1980 mostró que se podía hacer, en teoría, en un mainframe gigante. Las piezas pueden haber estado allí, pero algunos inventos, como el iPod, son más que la suma de las partes.
Jared Updike

@Alan Kay, @le dorfier: me parece que un contraejemplo parcial con esa actitud arraigada es la decisión de Donald Knuth de incrementar asintóticamente el número de versión de TeX hacia pi. Pero él es una institución, no una corporación. Mozilla y Google Race me horrorizan por la versión número 100 de sus navegadores, mientras que la estandarización inteligente y creativa, así como la innovación en el acceso a los datos y la transformación, están rezagadas.
ogerard

36

Una cosa que me sorprende es la humilde hoja de cálculo. Las personas que no son programadores crean soluciones salvajes y maravillosas para problemas del mundo real con una simple cuadrícula de fórmulas. La replicación de sus esfuerzos en la aplicación de escritorio a menudo lleva de 10 a 100 veces más de lo que tomó escribir la hoja de cálculo y la aplicación resultante es a menudo más difícil de usar y está llena de errores.

Creo que la clave del éxito de la hoja de cálculo es el análisis de dependencia automático. Si el usuario de la hoja de cálculo se viera obligado a usar el patrón de observación, no tendría ninguna posibilidad de hacerlo bien.

Entonces, el gran avance es el análisis de dependencia automático. Ahora, ¿por qué ninguna plataforma moderna (Java, .Net, Servicios web) ha incorporado esto en el núcleo del sistema? Especialmente en un día y una época de escalado a través de la paralelización: un gráfico de dependencias conduce a la recalculación paralela trivialmente.

Editar: Dang, solo comprobado. VisiCalc se lanzó en 1979, supongamos que es una invención posterior a 1980.

Edit2: Parece que Alan ya anotó la hoja de cálculo, ¡si la pregunta que lo compró a este foro es correcta!


55
Pensé en esta respuesta, pero Visicalc fue lanzado justo antes de la fecha límite de 1980. ( en.wikipedia.org/wiki/VisiCalc )
Pensamiento extraño

pero esto revela un punto interesante: solo presentar una forma simple de mostrar y manipular datos creó una clase de herramientas increíblemente útil. ¿Hay alguna otra idea 'habilitadora' como esta? necesitamos uno? creo que sí.
Javier


Estoy totalmente de acuerdo. El análisis de dependencia automático podría ser y debería ser parte de los lenguajes de programación modernos.
Jesse Pepper el

1
@hasen j: Excel es una hoja de cálculo Por cierto, existen plataformas modernas que mantienen las dependencias entre los cálculos, por ejemplo Haskel (Excel y los lenguajes funcionales tienen mucho en común, por ejemplo, funciones puras y evaluación perezosa). Excel es mucho más intuitivo que Haskel :)
ajuc

36

Software:

  • Virtualización y emulación.

  • Transferencias de datos P2P

  • proyectos impulsados ​​por la comunidad como Wikipedia, SETI @ home ...

  • rastreo web y motores de búsqueda web, es decir, indexar información que se extiende por todo el mundo

Hardware:

  • la PC modular

  • Papel electrónico


66
La virtualización se implementó en VM / CMS en 1972. ¿Qué quiere decir con "la PC modular"?
Hudson

Creo que con "la PC modular" quiere decir que cualquiera puede comprar componentes casi intercambiables y construir su propia computadora.
Psycho_Penguin

14
P2P se inventó en Xerox PARC en los años 70: los Altos eran todos P2P y los recursos de archivos e impresoras y "enrutadores" eran todos Altos P2P
Alan Kay

1
Vi "E-paper" y pensé, ¿qué? ¿Cómo me afecta eso día a día? Me alegro de que exista, pero los lectores electrónicos no son tecnologías muy importantes en general, en comparación con el teléfono celular o el iPod.
Jared Updike

3
Me gustaría señalar que hace unos 40-50 años, todo el mundo todavía hacía matemáticas en papel principalmente y decía lo mismo sobre las computadoras ...
RCIX

36

El redescubrimiento de la mónada por los investigadores de programación funcional. La mónada fue instrumental al permitir que un lenguaje puro y vago (Haskell) se convirtiera en una herramienta práctica; También ha influido en el diseño de las bibliotecas de combinador (los combinadores de analizadores monádicos incluso han llegado a Python).

"Una descripción teórica de categoría de los módulos de programa" de Moggi (1989) se atribuye generalmente a la presentación de mónadas para un cómputo efectivo; El trabajo de Wadler (por ejemplo, "Programación funcional imperativa" (1993)) presentó a las mónadas como una herramienta práctica.


36

Software Shrinkwrap

Antes de 1980, el software estaba principalmente escrito especialmente. Si dirigía un negocio y quería informatizar, normalmente obtendría una computadora, un compilador y una base de datos, y escribiría sus propias cosas. El software empresarial generalmente se escribió para adaptarse a las prácticas comerciales. Esto no quiere decir que no había software enlatado (trabajé con SPSS antes de 1980), pero no era la norma, y ​​lo que vi tendía a ser infraestructura y software de investigación.

Hoy en día, puede ir a una tienda de computadoras y encontrar, en el estante, todo lo que necesita para administrar una pequeña empresa. No está diseñado para adaptarse sin problemas a las prácticas que solía tener, pero funcionará bien una vez que aprenda a trabajar más o menos de acuerdo con su flujo de trabajo. Las grandes empresas están mucho más cerca de la envoltura retráctil de lo que solían estar, con cosas como SAP y PeopleSoft.

No es un descanso limpio, pero después de 1980 hubo un cambio definitivo de software personalizado costoso a software comercial de bajo costo, y la flexibilidad cambió de software a procedimientos comerciales.

También afectó la economía del software. Las soluciones de software personalizadas pueden ser rentables, pero no escalan. Solo puede cobrar tanto a un cliente, y no puede vender lo mismo a varios clientes. Con el software retráctil, puede vender lotes y lotes de lo mismo, amortizando los costos de desarrollo en una base de ventas muy grande. (Debe proporcionar soporte, pero eso se escala. Solo considérelo como un costo marginal de vender el software).

Teóricamente, donde hay grandes ganadores de un cambio, habrá perdedores. Hasta ahora, el negocio del software ha seguido expandiéndose, de modo que a medida que las áreas se convierten en productos básicos, se abren otras áreas. Es probable que esto llegue a su fin en algún momento, y los desarrolladores moderadamente talentosos se encontrarán en una crisis real, incapaces de trabajar para los grandes y desplazados del mercado. (Esto presumiblemente ocurre para otros campos; sospecho que la demanda de contadores es mucho menor de lo que sería sin QuickBooks y similares).


Turbo Pascal & C a $ 100 en un sistema MS-DOS provocó un precio de $ 100 en un compilador C para un C / PM de otros.
CW Holeman II

Lo siento, estoy bastante seguro de que Microsoft vendía software retráctil antes de 1980. No es que fueran los únicos.
Mark Ransom

34

Fuera de las innovaciones de hardware, tiendo a encontrar que hay poco o nada nuevo bajo el sol. La mayoría de las grandes ideas se remontan a personas como von Neumann y Alan Turing.

En la actualidad, muchas cosas que se etiquetan como 'tecnología' son solo un programa o biblioteca que alguien escribió, o un recauchutado de una vieja idea con una nueva metáfora, acrónimo o nombre de marca.


3
No se puede ver el bosque ya que todos los árboles están en el camino ... Los bloques de construcción son muy parecidos, pero el resultado ha cambiado / evolucionado.
Johan

8
... Esa es la definición de tecnología;) "la aplicación práctica del conocimiento ..."
steamer25

1
Estoy de acuerdo en que es hora de la próxima gran cosa. Estoy cansado de volver a empacar las cosas olvidadas del pasado como algo nuevo. Como Javascript = AJAX.
James

32

Los gusanos informáticos fueron investigados a principios de los años ochenta del siglo pasado en el Centro de Investigación Xerox Palo Alto.

De los programas "El gusano" de John Shoch y Jon Hupp - Experiencia temprana con una computación distribuida "(Comunicaciones de la ACM, marzo de 1982, Volumen 25, número 3, pp.172-180, marzo de 1982):

En The Shockwave Rider , J. Brunner desarrolló la noción de un programa omnipotente de "tenia" que se ejecuta libremente en una red de computadoras, una idea que puede parecer bastante inquietante, pero que también está bastante más allá de nuestras capacidades actuales. Sin embargo, el modelo básico sigue siendo muy provocativo: un programa o un cómputo que puede moverse de una máquina a otra, aprovechando los recursos según sea necesario y repitiéndose cuando sea necesario.

De manera similar, una vez describimos un modelo computacional basado en la clásica película de ciencia ficción, The Blob: un programa que comenzó a ejecutarse en una máquina, pero a medida que crecía su apetito por los ciclos informáticos, podía llegar, encontrar máquinas no utilizadas y crecer para abarcar esos recursos. En medio de la noche, dicho programa podría movilizar cientos de máquinas en un edificio; en la mañana, cuando los usuarios reclamaban sus máquinas, el "blob" tendría que retirarse de manera ordenada, recogiendo los resultados intermedios de su cálculo. Encerrado en una o dos máquinas durante el día, el programa podría surgir nuevamente más tarde a medida que los recursos estuvieran disponibles, expandiendo nuevamente la computación. (Esta afinidad por la exploración nocturna llevó a un investigador a describirlos como "programas de vampiros").

Citando a Alan Kay: "La mejor manera de predecir el futuro es inventarlo".


@Bobby: Según los conceptos básicos de seguridad informática, 2006, Lehtinen, Russell y Gangemi, este trabajo comenzó "alrededor de 1980". Entonces, si ignoras los precursores de la ciencia ficción, esto cuenta.
Charles Stewart el

31

Mejores interfaces de usuario.

Las interfaces de usuario de hoy todavía apestan. Y no me refiero en pequeñas formas sino en grandes y fundamentales. No puedo evitar notar que incluso los mejores programas todavía tienen interfaces que son extremadamente complejas o que requieren mucho pensamiento abstracto de otras maneras, y que simplemente no se acercan a la facilidad de las herramientas convencionales que no son de software.

De acuerdo, esto se debe al hecho de que el software permite hacer mucho más que las herramientas convencionales. Sin embargo, esa no es razón para aceptar el status quo. Además, la mayoría del software simplemente no está bien hecho.

En general, las aplicaciones aún carecen de un cierto sentimiento de "simplemente funciona", están demasiado orientadas por lo que se puede hacer, en lugar de lo que se debe hacer. Un punto que se ha planteado una y otra vez, y que aún no se ha resuelto, es el punto de guardar. Las aplicaciones se bloquean, destruyendo horas de trabajo. Tengo la costumbre de presionar Ctrl + S cada pocos segundos (por supuesto, esto ya no funciona en aplicaciones web). ¿Por qué tengo que hacer esto? Es tremendamente estúpido. Esta es claramente una tarea de automatización. Por supuesto, la aplicación también tiene que guardar un diff para cada modificación que realice (básicamente una lista de deshacer infinita) en caso de que cometa un error.

Resolver este probem ni siquiera es realmente difícil. Sería difícil implementarlo en todas las aplicaciones, ya que no hay una buena API para hacerlo. Las herramientas de programación y las bibliotecas tienen que mejorar significativamente antes de permitir una implementación sin esfuerzo de tales esfuerzos en todas las plataformas y programas, para todos los formatos de archivo con almacenamiento de respaldo arbitrario y sin la interacción requerida del usuario. Pero es un paso necesario antes de que finalmente comencemos a escribir aplicaciones "buenas" en lugar de simplemente aplicaciones adecuadas.

Creo que Apple actualmente se aproxima a la sensación de "simplemente funciona" en algunos aspectos. Tomemos, por ejemplo, su versión más reciente de iPhoto, que presenta un reconocimiento facial que agrupa automáticamente las fotos de las personas que aparecen en ellas. Esa es una tarea clásica que el usuario no quiere hacer manualmente y no entiende por qué la computadora no lo hace automáticamente. E incluso iPhoto todavía está muy lejos de una buena interfaz de usuario, ya que dicha función aún requiere la confirmación final del usuario (¡para cada foto!), Ya que el motor de reconocimiento facial no es perfecto.


3
Picasa de Google ha tenido eso por un tiempo. De hecho, picasa tiene muchas otras características que lentamente se están arrastrando a iPhoto.
akshaykarthik

30

Sistemas HTM ( memoria temporal jerárquica ).

Un nuevo enfoque de la Inteligencia Artificial, iniciado por Jeff Hawkins a través del libro " Sobre Inteligencia ".

Ahora activa como una compañía llamada Numenta, donde estas ideas se ponen a prueba a través del desarrollo de IA "verdadera", con una invitación a la comunidad a participar mediante el uso del sistema a través de SDK.

Se trata más de construir inteligencia de máquina desde cero, en lugar de tratar de emular el razonamiento humano.


11
Cuando hagan algo interesante, seré el primer y más fuerte líder de los aplausos
Alan Kay

@AlanKay Bueno, parece que HTM ya se usa en productos reales. Por ejemplo: vitamind inc le permite reconocer objetos o personas en imágenes de CCTV. Vitamindinc es completamente alimentado por HTM. En este documento , puede ver que HTM realmente supera el enfoque SVM para el reconocimiento manuscrito en conjuntos de datos como USPS. El hecho de que al mismo tiempo esté inspirado biológicamente y tenga un alto valor práctico me sorprende. Creo que puedes comenzar a aplaudir ahora mismo.
Benjamin Crouzier

26

El uso de la física en la interacción computadora humana para proporcionar una metáfora alternativa y comprensible. Esto, combinado con gestos y hápticos, probablemente resultará en un reemplazo de la metáfora de la GUI común actual inventada en los años 70 y de uso común desde mediados hasta finales de los 80.

La potencia informática no estaba presente en 1980 para hacer eso posible. Creo que los juegos probablemente lideraron el camino aquí. Un ejemplo se puede ver fácilmente en la interacción del desplazamiento de la lista en el iPod Touch / iPhone. El mecanismo de interacción se basa en la intuición de cómo funcionan el impulso y la fricción en el mundo real para proporcionar una manera simple de desplazar una lista de elementos, y la usabilidad se basa en el gesto físico que causa el desplazamiento.


El primer ejemplo que se me ocurre fue el Kit de realidad alternativa de Randy Smith, construido en Smalltalk-80 en PARC en el '86 o '87. Podrías implementar nuevos objetos con una metáfora física. Cada objeto tenía ubicación, masa, impulso y un menú emergente para interactuar con él a través de su interfaz de mensajes.
PanCrit

25

Creo que Unit Testing, TDD e Continuous Integration son inventos importantes después de 1980.


2
La prueba primero fue un método muy antiguo que se ha resucitado, creo.
Johnno Nolan el

Eso es una cosa de ingeniería de software, no una cosa de "computación"
SquareCog

77
Estoy de acuerdo con John, por ejemplo, Brooks describe un enfoque de primera prueba en The Mythical Man-Month (1975).
Fabian Steeg

28
La integración continua se realizó por primera vez en serio en BBN Lisp 1.85 a finales de los años 60, que se convirtió en Interlisp en PARC. Smalltalk en PARC en los años 70 también fue un sistema de integración continua.
Alan Kay el

3
TDD solo se volvió generalmente útil cuando las computadoras se volvieron lo suficientemente rápidas para ejecutar pruebas pequeñas tan rápido que está dispuesto a ejecutarlas una y otra vez.
Jay Bazuzi el

25

Teléfonos móviles.

Mientras que la primera patente de "teléfono inalámbrico" fue en 1908, y estuvieron cocinando durante mucho tiempo (0G en 1945, 1G lanzado en Japón en 1979), los teléfonos celulares digitales 2G modernos no aparecieron hasta 1991. Los SMS no existían hasta 1993, y el acceso a Internet apareció en 1999.


44
Japón en 1979, eso es antes de 1980. Estamos buscando nuevos inventos: laboratorios de investigación, universidades, demostraciones prácticas de solicitudes de patentes ... todo lo cual será anterior a la disponibilidad del mercado masivo por varios años.
saschabeaumont el

1
La diferencia entre 1G y 2G es casi tan grande como la diferencia entre una computadora analógica y una digital. Creo que 2G (1991) merece el estado de "nueva" invención.
Domchi

Y depende de tecnologías de ahorro de energía y buenas baterías.
Johan

23

Comencé a programar el 2 de enero de 1980. He tratado de pensar en nuevos inventos significativos a lo largo de mi carrera. Me cuesta pensar en alguna. La mayor parte de lo que considero significativo se inventó en realidad antes de 1980, pero luego no fue ampliamente adoptado o mejorado hasta después.

  1. Interfaz gráfica del usuario.
  2. Procesamiento rápido
  3. Memoria grande (pagué $ 200.00 por 16k en 1980).
  4. Tamaños pequeños: teléfonos celulares, computadoras de bolsillo, iPhones, netbooks.
  5. Grandes capacidades de almacenamiento. (Pasé de llevar un disquete grande de 90k a una memoria USB de 8 gigas.
  6. Múltiples procesadores. (Casi todas mis computadoras tienen más de una ahora, el software lucha por mantenerlas ocupadas).
  7. Interfaces estándar (como USB) para conectar fácilmente periféricos de hardware.
  8. Múltiples pantallas táctiles.
  9. Conectividad de red: que condujo a la explosión de Internet a mediados de los 90
  10. IDE con Intellisense y compilación incremental.

Si bien el hardware ha mejorado enormemente, la industria del software ha luchado por mantenerse al día. Estamos a años luz de 1980, pero la mayoría de las mejoras han sido refinamientos en lugar de inventos. Desde 1980, hemos estado demasiado ocupados aplicando lo que los avances nos permiten hacer en lugar de inventar. Por sí solos, la mayoría de estos inventos incrementales no son importantes ni poderosos, pero cuando miras hacia atrás en los últimos 29 años, son bastante poderosos.

Probablemente necesitemos aceptar las mejoras incrementales y dirigirlas. Creo que las ideas realmente originales probablemente vendrán de personas con poca exposición a las computadoras y cada vez son más difíciles de encontrar.


"Las ideas originales probablemente vendrán de personas con poca exposición a las computadoras" tan cierto. y aún más triste ya que la mayor parte de esa exposición 'adormecedora' es windows / office.
Javier

1
Algunas fechas para inventos anteriores: la GUI de Engelbart se demostró en 1968 y el Xerox PARC Alto se desarrolló en 1973. Varias CPU son nuevas en el escritorio, pero no en la sala de máquinas; el clúster VAX estuvo disponible por primera vez en 1978.
Hudson

Estabas programando antes de que yo naciera. Dang, tengo un largo camino por recorrer.
Kezzer

Ay. No comencé hasta los 26 años, ahora realmente me siento viejo. :)
bruceatk

¿Tuvo en cuenta la inflación para ese chip de memoria de $ 200 16k?
Tim Tonnesen el

22

Nada.

Creo que es porque la gente ha cambiado sus actitudes. La gente solía creer que si solo encontraban esa "gran idea", entonces se harían ricos. Hoy, la gente cree que es la ejecución y no el descubrimiento lo que más paga. Tienes mantras como "las ideas son una moneda de diez centavos por docena" y "el segundo ratón recibe el queso". Por lo tanto, las personas se centran en explotar las ideas existentes en lugar de idear otras nuevas.


3
Muchas de las ideas existentes simplemente no se han implementado todavía.
Breton

3
Siempre hay algunos locos que van a tener nuevas ideas, simplemente no pueden evitarlo ;-)
Johan

Pero son locos, por lo que no pueden vender sus ideas porque nadie las escuchará.
Adam Jaskiewicz

Las ideas son más la provincia de los artistas. La implementación práctica es lo que hacemos. Buscar ideas nuevas para los ingenieros es como pescar en el estanque equivocado. Para obtener nuevas ideas brillantes, lea Sf y descubra cómo se puede hacer esto (me imagino que se podría hacer mucho). Sin embargo, implementar una idea descabellada puede llevar años. Los artistas pueden escaparse vendiendo ideas y sueños, pero se espera que los ingenieros presenten productos ... y también tienen que comer.
Sylverdrag el

16

Desarrollo comunitario de código abierto.


2
En realidad, el grupo de usuarios SIG / M es un tipo de fecha anterior a lo que ahora llamamos código abierto. Contenía cientos de discos (de la variedad de disquete) llenos de software CP / M, gran parte de código abierto (aunque el término "código abierto" no existía en ese momento).
Mike Thompson

2
En el sentido de cooperación abierta y desarrollo entre las personas que tenían acceso a una computadora, es muy similar a los grupos de usuarios de IBM en la década de 1960. Es solo que más personas pueden pagar las computadoras ahora.
David Thornley

2
De acuerdo con David, ahora solo se ha vuelto más prominente ya que las computadoras se han trasladado de las áreas educativa y científica al mundo de los negocios, esto dio lugar a software de "fuente cerrada", licencias confusas. Siempre estuvo allí, simplemente no necesitaba un nombre hasta que los abogados se involucraron.
saschabeaumont el

1
Sí, también debo estar de acuerdo con David aquí. El código abierto es muy anterior a 1980. Es anterior a al menos 20 años. Sin embargo, pensé que era la década de 1950, no la de 1960.
Brendan Enrick el

16

El iPad (lanzado en abril de 2010): ¡seguramente este concepto es absolutamente revolucionario!

texto alternativo http://www.ubergizmo.com/photos/2010/1/apple-ipad//apple-ipad-05.JPG

¡De ninguna manera Alan Kay vio eso desde los años 70!
Imagine un "manipulador de información personal y portátil" ...


...

¿Espere? ¿¡Qué!? ¿El Dynabook que dices?

texto alternativo

¿Pensado por Alan Kay ya en 1968, y descrito con gran detalle en este artículo de 1972 ?

NOOOooo ooooo ....

Oh bien, ya no importa.


Ver stackoverflow.com/questions/432922/… para un contexto más amplio ilustrado por esta respuesta.
VonC

Bueno, seguramente la idea ya existía antes (por ejemplo, Apple Newton); sin embargo, la tecnología ahora avanzó tanto que es posible construir un dispositivo de consumo barato (y excelente).
Nils
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.