561 Stimmen

Bedeutende neue Erfindungen im Bereich der Informatik seit 1980

Diese Frage ergab sich aus Kommentare über verschiedene Arten von Fortschritten in der Informatik in den letzten 50 Jahren oder so.

Ich wurde von einigen anderen Teilnehmern gebeten, diese Frage an das gesamte Forum zu richten.

Der Grundgedanke dabei ist nicht, den aktuellen Stand der Dinge schlecht zu machen, sondern zu versuchen, etwas über den Fortschritt bei der Entwicklung grundlegender neuer Ideen und Prinzipien zu verstehen.

Ich behaupte, dass wir in den meisten Bereichen der Informatik wirklich neue Ideen brauchen, und ich würde gerne wissen, welche wichtigen und leistungsstarken Ideen in letzter Zeit umgesetzt wurden. Wenn wir sie nicht finden können, sollten wir fragen: "Warum?" und "Was sollten wir tun?"

311voto

splattne Punkte 102178

Das Internet selbst gibt es schon seit 1980, aber die World Wide Web ("verteilter Hypertext über einfache Mechanismen"), das 1989/90 von Tim Berners-Lee vorgeschlagen und umgesetzt wurde.

Die Idee des Hypertextes gab es zwar schon vorher ( Nelsons Xanadu versucht hatte, ein verteiltes System zu implementieren), war das WWW ein neuer Ansatz für die Implementierung eines verteilten Hypertext-Systems. Berners-Lee kombinierte ein einfaches Client-Server-Protokoll, eine Auszeichnungssprache und ein Adressierungsschema auf eine Weise, die leistungsstark und leicht zu implementieren war.

Ich denke, die meisten Innovationen entstehen durch die Neukombination bestehender Teile auf originelle Weise. Jedes der Elemente des WWW gab es in irgendeiner Form schon vorher, aber die Kombination war erst im Nachhinein offensichtlich.

Und ich bin mir sicher, dass Sie es gerade jetzt benutzen.

235voto

Oddthinking Punkte 22694

Stiftung für freie Software (Gegründet 1985)

Selbst wenn man kein überzeugter Anhänger ihrer Philosophie ist, haben die von ihnen vertretenen Ideen von freier Software und Open-Source einen erstaunlichen Einfluss auf die Softwareindustrie und Inhalte im Allgemeinen (z. B. Wikipedia).

137voto

merriam Punkte 67

Paketverwaltung und verteilte Revisionskontrolle.

Diese Muster in der Art und Weise, wie Software entwickelt und verteilt wird, sind noch recht neu und beginnen gerade erst, sich auszuwirken.

Ian Murdock hat angerufen Paketverwaltung "der größte Fortschritt, den Linux für die Industrie gebracht hat". Nun, das würde er, aber er hat nicht ganz unrecht. Die Art und Weise, wie Software installiert wird, hat sich seit 1980 erheblich verändert, aber die meisten Computernutzer haben diese Veränderung noch nicht mitbekommen.

Joel und Jeff haben über Revisionskontrolle (oder Versionskontrolle, oder Quellcodekontrolle) gesprochen mit Eric Sink in Podcast #36 . Es scheint, als hätten die meisten Entwickler noch nicht den Anschluss gefunden zentralisiert Systeme, und DVCS wird weithin als mysteriös und unnötig angesehen.

Von die Mitschrift des Podcast 36 :

0:06:37

Atwood: ... Wenn man davon ausgeht - und das ist eine große Annahme -, dass die meisten Entwickler die grundlegende Versionskontrolle irgendwie beherrschen - was ich, offen gesagt, nicht für wahr halte ...

Spolsky: Nein. Die meisten von ihnen verstehen zwar das Einchecken und Auschecken, aber das Verzweigen und Zusammenführen - das verwirrt sie zutiefst.

122voto

Kief Punkte 4184

BitTorrent . Es stellt eine scheinbar unumstößliche Regel auf den Kopf: Die Zeit, die eine einzelne Person zum Herunterladen einer Datei über das Internet benötigt, wächst proportional zur Anzahl der Personen, die die Datei herunterladen. Es behebt auch die Mängel früherer Peer-to-Peer-Lösungen, insbesondere im Zusammenhang mit dem "Leeching", auf eine Art und Weise, die der Lösung selbst innewohnt.

BitTorrent wandelt den Nachteil, dass viele Nutzer gleichzeitig versuchen, eine Datei herunterzuladen, elegant in einen Vorteil um, indem es die Datei als natürlichen Teil des Download-Prozesses geografisch verteilt. Seine Strategie zur Optimierung der Bandbreitennutzung zwischen zwei Peers verhindert als Nebeneffekt das Leeching - es ist im besten Interesse aller Teilnehmer, eine Drosselung durchzusetzen.

Es ist eine dieser Ideen, die, sobald jemand anderes sie erfunden hat, einfach, wenn nicht sogar offensichtlich erscheint.

120voto

Norman Ramsey Punkte 193087

Die Damas-Milner-Typinferenz (oft auch Hindley-Milner-Typinferenz genannt) wurde 1983 veröffentlicht und bildet seither die Grundlage jedes hochentwickelten statischen Typsystems. Es handelte sich um eine wirklich neue Idee für Programmiersprachen (die zwar auf in den 1970er Jahren veröffentlichten Ideen beruhte, aber erst nach 1980 in die Praxis umgesetzt wurde). In Bezug auf die Bedeutung kann ich es mit Self und den Techniken, die zur Implementierung von Self verwendet werden, auf eine Stufe stellen; in Bezug auf den Einfluss hat es keinen Gleichen. (Der Rest der OO-Welt arbeitet immer noch mit Variationen von Smalltalk oder Simula).

Es gibt immer noch Variationen der Typeninferenz; die Variante, die ich am meisten hervorheben würde, ist die von Wadler und Blott Typklasse Mechanismus zur Lösung von Überladungen, von dem später entdeckt wurde, dass er sehr leistungsfähige Mechanismen für die Programmierung auf der Typebene bietet. Das Ende dieser Geschichte ist noch nicht geschrieben.

CodeJaeger.com

CodeJaeger ist eine Gemeinschaft für Programmierer, die täglich Hilfe erhalten..
Wir haben viele Inhalte, und Sie können auch Ihre eigenen Fragen stellen oder die Fragen anderer Leute lösen.

Powered by:

X