| FOTO | AUTO | EDV | AUDIO |

Die Entwicklung des Internet

in chronologischer Abfolge

Wir schreiben das Jahr 1962. Der kalte Krieg tobt und die Legende um die Entstehung des Internet findet ihren Anfang.

Wir schreiben das Jahr 1962. Der kalte Krieg tobt und die Legende um die Entstehung des Internet findet ihren Anfang. Das Arpanet wird geboren. Auftraggeber des ersten Vorläufers des heutigen Internet war damals die US-Luftwaffe. Geschaffen werden sollte eine schon früher überlegte dezentrale Vernetzung von Einrichtungen und Informationen, damals noch ausschließlich über Telefonleitungen. Je nach mehr oder minder freier Auslegung könnte man also sogar ein wenig eher anfangen und schon das Jahr 1957 als Gründerjahr nennen. Bereits zu diesem Zeitpunkt entstand bei den USA der Wunsch, wieder die führende Macht in der Informationsverbreitung zu werden, weswegen das US-Verteidigungsministerium hierzu die ARPA (Advanced Research Projects Agency Network) gründete. Ausschlaggebend war die der erfolgreiche Start des Satelliten Sputnik der damaligen UdSSR.

1960 erkannte die nach dem Zweiten Weltkrieg zur Unterstützung der US-Streitkräfte gegründete Denkfabrik RAND Corporation („Research And Development“ (Forschung und Entwicklung)), dass ein direkter Treffer auf einen der Hauptknoten einer leitungsorientierten Vernetzung von Einrichtungen einen Totalausfall nach sich ziehen würde. Die Grundidee entstammt dabei den Forschungen von Paul Baran bei RAND, sowie dem Physiker Donald Watts Davies aus Großbritannien. Um eine Unterbrechung zu verhindern und gleichzeitig effizientere Ausnutzung vorhandener Ressourcen sicherzustellen, war eine paketorientierte Kommunikation das optimale Mittel. Hierbei werden Informationen in einzelne Pakete zerlegt. Diese Datenpakete suchen sich selbständig ihren Weg zum Ziel auf einer dezentralen Basis, anstatt der bisher als sinnvoll propagierten Stern- oder Ringverteilung zur Vernetzung. Am Ziel angekommen werden die Daten wieder zu einer kompletten Information zusammengesetzt.

Fälschlicherweise wird noch immer verbreitet, das Arpanet habe rein militärische Absichten gehabt und sollte schlichtweg der sicheren Informationsverteilung während eines Krieges dienlich sein und einem Nuklearangriff standhalten. Das nahm man wegen der damals von Paul Baran veröffentlichten RAND-Studie an und auch noch heute kann man es in diversen Verschwörungstheorien wiederfinden. Paul Baran befasste sich zu dieser Zeit durchaus ebenso wie Davies mit der Ausfallsicherheit von Kommunikationsnetzen, speziell dem AT&T-Telefonnetz im Falle eines Atomraketenangriffes, jedoch waren diese Überlegungen nicht ausschlaggebend für die Entwicklung des Arpanet. Offiziell widerlegt wurde die Annahme des militärischen Hintergrunds von der 1992 gegründeten und nicht staatlichen Internet Society (ISOC), einem Zusammenschluss von ca. 150 Organisationen aus über 170 Ländern, die sich der Pflege und Weiterentwicklung der Internetinfrastruktur verschrieben hat. In ihrem „A Brief History of the Internet“ heißt es:

„Auf der RAND-Studie beruht das falsche Gerücht, dass das Arpanet mit der Schaffung eines dem Atomkrieg widerstehenden Netzwerkes verbunden sei. Dies traf nie auf das Arpanet zu, sondern nur auf die davon unabhängige RAND-Studie über sichere Telefonverbindungen während des Atomkriegs. Allerdings hoben spätere Arbeiten die Robustheit und Überlebensfähigkeit des Internets hervor, inklusive der Fähigkeit, großen Verlusten bei den zugrunde liegenden Netzwerken zu widerstehen. “

Eigentlicher Zweck war schlichtweg die effizientere Ausnutzung von Rechenkapazitäten der damals vernetzten Universitäten sowie die Gewährleistung der Funktionalität jener Verbindungen. So gehörten zu diesen ersten vernetzten Einrichtungen damals die vier Forschungseinrichtungen Stanford Research Institute, University of Utah, University of California, Los Angeles, sowie die University of California, Santa Barbara.

Der weltweit erste Webserver


Museum CERN: Der weltweit erste Webserver von Tim Berners-Lee. Quelle

Im Jahr 1968 erhielt das Stanford Research Institute (SRI) nach einer Ausschreibung der DARPA für ein Network Information Center (NIC) für das Arpanet den Auftrag, die Spezifikationen für das neue Netz zu schreiben. Am SRI waren bereits Forscher rund um den Computertechniker Douglas Carl Engelbart mit der Ausarbeitung von Umsetzungen bezüglich computergestützten Techniken zur Förderung von menschlicher Interaktion beschäftigt und so sah man dies als einen geeigneten Ort für dieses Ziel. Die Ausschreibung für ein Network Measurement Center ging an die University of California in Los Angeles (UCLA). Dort arbeitete Leonard Kleinrock, der seine Doktorarbeit über die Warteschlangentheorie geschrieben hatte. Weitere Mitglieder im UCLA-Team wurden dann Vinton G. Cerf, Jonathan Postel und Steve Crocker. Für die Entwicklung der Paketvermittlungstechnologien, das Interface Message Processors (IMP), erhielt BBN Technologies den Zuschlag. Tragende Kraft war dort Robert E. Kahn vom MIT. Sein Team, welches die Umsetzung von IMPs als Aufgabe hatte, war damit sozusagen der Urvater der heutigen Router. Wahlweise könnte man auch die IMPs als Urväter der Router bezeichnen, die die niedrigste Verbindungsschicht zwischen den über Telefonleitungen vernetzten Rechnern (Hosts) herstellten.

Wichtiger Bestandteil der Konzeptionierung des Internet als solches ist sicherlich auch die von Gesellschaftswissenschaftler Ted Nelson entwickelte Begrifflichkeit Hypertext. Dieses Konzept entstammt seinem dem World Wide Web sehr ähnlichen Projekt Xanadu, dem Docuverse. Unter Hypertext verstand er eine absolute Adressierung und dadurch stets gegebene Auffindbarkeit eines Objekts, bzw. Dokuments, sowie die Möglichkeit, einzelne Bestandteile bis sogar hin zu einzelnen Zeichen von anderen Dokumenten referenzieren und einbinden zu können. Gleichzeitig sollte es möglich sein, eine dadurch entstandene Verlinkung rückwärts nachvollziehen zu können, also den Ursprung der Referenzierung erkennbar zu machen, um eine Vernetzung von Informationen zu erreichen. Fachlich spricht man dabei von Transklusion.

1969 entstanden dann auch die ersten Protokollbeschreibungen, besser bekannt als RFCs, Requests for Comments (zu deutsch Bitte um Kommentare). Diese legten und legen bis heute in immer weiteren Überlegungen und Ausführungen mit der Zeit Standards fest, nach denen die Vernetzung von einzelnen Hosts und ganzen Netzen funktioniert. Grundsätzlich beschreiben sie die Funktionsweise des Datenaustauschs und die Arbeitsweise auf den sieben Ebenen: Das sogenannte OSI-Schichtenmodell. Ein vereinfachtes Modell arbeitet nur mit vier Schichten. Diese Modelle unterscheiden verschiedene Layer (Schichten), zu denen die Anwendungsschicht (im OSI-Modell 5–7) (z.B. HTTP, FTP, SMTP, POP, Telnet), die Transportschicht (4) (z.B. TCP, UDP, SCTP), die Internetschicht (3) (z.B. IP (Ipv4, Ipv6)) und die Netzzugangsschicht (1–2) (z.B. Ethernet, Token Bus, Token Ring, FDDI), gehören. Die in den RFCs festgelegten Richtlinien haben jeweils einen eigenen Status, wie beispielsweise Informational – Hinweis, Idee, Nutzung, Experimental – zum Experimentieren, Proposed Standard – Vorschlag für Standard, Draft Standard – Begutachtung von mindestens zwei unabhängigen Implementierungen, Standard – offizieller Standard STDn, Historic – nicht mehr benutzt. Zu den wichtigsten und wenn auch sicherlich nicht unbedingt unter ihrer offiziellen ID bekanntesten RFCs gehören RFC 768 (UDP), RFC 791 (IP), RFC 792 (ICMP), RFC 793 (TCP), RFC 821 (SMTP), RFC 822 (E-Mail-Format), RFC 959 (FTP), RFC 1006 (ISO on TCP - ISO Transport Service on top of the TCP), RFC 1034 (DNS – Concepts and Facilities), RFC 1166 (IP-Adresse), RFC 1661 (PPP), sowie RFC 1738 (URLs).

Trotz all der trockenen, aber für die Funktionalität des Internet essentiellen Vorgaben findet man allerdings auch hin und wieder etwas humoristische Anspielungen der vermutlich als Nerd einzustufenden Macher. Das beweisen zum Beispiel einige vornehmlich am 1. April veröffentlichten Vorgaben: RFC 2795 beschäftigt sich mit dem Infinite Monkey Theorem und beschreibt, wie eine unendliche Anzahl von Affen koordiniert werden kann, die die Werke von Shakespeare produzieren sollen. RFC 1149 (IPoAC) beschreibt, wie man IP via Brieftauben implementiert. Das am 1. April 2004 entwickelte Allwissenheitsprotokoll (RFC 3751) sollte der amerikanischen Regierung ermöglichen, alle Formen der Computerkriminalität zu erkennen und zu verhindern. Leider stellten sich diese Anforderungen als nicht durchführbar heraus und so endet der Text mit den Worten: „Good luck.“

Von dem kleinen Ausflug in die Technik zurück zur „Politik“ des Internet: Während 1971 das Arpanet von den ursprünglich vier auf mittlerweile 15 Knoten ausgebaut wurde, entsteht in Frankreich CYCLADES. Dem Gedanken zu dieser Entwicklung liegt ein Besuch einer französischen Delegation bei dem Forschungsunternehmen BBN Technologies (Bolt Beranek and Newman) in den USA zu Grunde. Auch hier wollte man eine dezentrale Vernetzung mittels „Informations-Paketen“ erreichen, die am Ende wieder zusammengesetzt würden. Jedoch stellte man das Vorhaben 1978 zu Gunsten des Telekommonopols wieder ein, da man selbiges dadurch gefährdet sah. Dennoch sind CYCLADES und die daraus resultierenden Entwicklungen ein wichtiger Bestandteil des heutigen Standes des Internet. Nicht zuletzt waren der Informationsaustausch der Entwickler von CYCLADES und der des ARPANETs, ebenso wie die teilweise Zusammenarbeit selbiger, maßgeblich für die späteren Errungenschaften.

Auch 1971 entwickelte Ray Tomlinson von BBN das erste E-Mail-Server-Programm für das Arpanet, während Larry Roberts den ersten E-Mail-Client schrieb. Interessanterweise und zugleich amüsanterweise hieß es 1967 noch von Lawrence Roberts, dem späteren Leiter der „Welterforscher“ IPTO (Information Processing Techniques Office), die Möglichkeit des Austausches von Botschaften unter den Netzwerkteilnehmern sei „not an important motivation for a network of scientific computers“ (zu Deutsch: „kein wichtiger Beweggrund, um ein Netzwerk von wissenschaftlichen Rechnern aufzubauen“). Dieser Satz dürfte ähnlich zu deuten sein wie die Äußerungen 1977 von Ken Olson, Präsident und Gründer von DEC, der da meinte „Es gibt keinen Grund, warum jemand einen Computer zu Hause haben wollte.“ Zugegeben, erst 1980 wurden E-Mails, eine der ersten Anwendungsmöglichkeiten des Arpanets, weitläufiger und immer intensiver genutzt. Sie sind jedoch nicht erst seit heute wohl eine der wichtigsten Anwendungen des Internet. Seit 2002 und spätestens 2007 muss man allerdings leider sagen, dass über 90% der E-Mails nur noch aus Spam, also „nicht erwünschten kommerziellen E-Mails“ bestehen und den Anwender verärgern und/oder gefährden. Dennoch ist und bleibt diese Form der Kommunikation vermutlich essentiell. Immerhin ersetzt sie doch mittlerweile einen Großteil an Faxen und Briefen. Wichtige Vorteile der E-Mail gegenüber „traditionelleren“ Möglichkeiten zum Nachrichten-Austausch sind vor allem ihre bequeme Nutzungsweise und die quasi unmittelbare Zustellung.
Visualisierung der Teile und Routen des Internet. Quelle: Matt Britt

1972 wollte man das wachsende Netz der Öffentlichkeit präsentieren. Auf der International Conference on Computer Communications in Washington war es dann soweit. Der Keller des Konferenzhotels wurde mit einem Paketvermittlungsrechner und einem Terminal Interface Processor (TIP) ausgestattet, der mit mehreren Hosts und ihren Terminals interagieren konnte. Angebunden waren 40 Rechner aus den USA. So zeigte man dort den letztlich verwirrten Teilnehmern aus England, Frankreich, Italien, Schweden, sowie Vertretern von AT&T Schachspiele und ein Luftverkehrskontrollsystem. Für einen nicht unbeachtlichen Teil des Unverständnisses dürfte sicherlich auch das berühmt berüchtigte Programm ELIZA des Computerpioniers und gleichzeitig vermutlich größten Kritiker Joseph Weizenbaum verantwortlich gewesen sein. Dieses Programm simulierte ein Gespräch mit einem virtuellen Psychiater, was viele Menschen seinerzeit für dermaßen hochentwickelt hielten, dass sie sich sogar auf dessen Prognosen verließen. Ebenso trug wohl das „paranoide Programm“ PARRY einen Teil zu der Skepsis bei, die man dort am Ende der Veranstaltung präsentierte.

All den Verwirrungen zum Trotz ging letztlich der Siegeszug dieser neuen Technologie weiter. So gaben Institute in Norwegen und England Projekte in Auftrag, um die radio- und satellitengestützte Paketvernetzung voranzutreiben. Das erste Local Area Network (LAN) entstand während einer Doktorarbeit von Bob Metcalfe an der Harvard-Universität. Dabei schuf er mit seiner Taufe des Netzes auf den Namen „Ethernet“ den heute geläufigen Begriff für kabelgebundene Datennetztechnik für lokale Datennetze (genauer gesagt den dazugehörigen Datenübertragungs-Standard). Weiterentwickelt wurde diese Technologie dann bei Xerox PARC und im Anschluss im Jahre 1979 konnte Metcalfe die Gründung von 3Com für sich verbuchen, einem namhaften Hersteller von Netzwerkausrüstung mit Firmensitz in Marlborough, Massachusetts, USA, der später die ersten Ethernet-Karten auslieferte.

1973 begab es sich, dass der vermutlich bis heute wichtigste Bestandteil des Internet veröffentlicht wurde: TCP (Transmission Control Protocol). Ursprung dieser Technologie war das bereits angesprochene CYCLADES-Netz. Mit Hilfe des TCP-Protokolls gab es nun eine weitere und eindeutigere Möglichkeit, die einzelnen Endpunkte und so genannten Hosts einer Vernetzung zu adressieren und zu identifizieren. 1977 wird TCP in das TCP und das Internet Protocol (IP) aufgespalten. Parallel wurde im IP-Standard zusätzlich zu TCP auch das User Datagram Protocol (UDP) spezifiziert. Vorteil von TCP ist seine größere Zuverlässigkeit: Es arbeitet mit Empfangsbestätigungen und versendet verlorengegangene Pakete erneut. UDP dagegen arbeitet ohne solche Sicherheitsmaßnahmen. Dadurch ist es allerdings auch erheblich performanter. Es kommt daher auch heute noch beispielsweise bei der Übermittlung von Sprachnachrichten, beim Video-Streaming oder bei Spielen zum Einsatz, da hier ein möglicher Verlust von Paketen ein geringeres Übel als eine Verzögerung darstellt. Es gab insgesamt vier Iterationen des TCP-Protokollsatzes bis 1978. Später ersetzte es das Network Control Protocol (NCP) komplett: Am 1. Januar 1983, dem sogenannten „Flag Day“, wurde das Arpanet komplett auf TCP/IP umgestellt.

1978 war dann auch der Abschluss des Arpanet-Experiments, zu dem man in einem letzten Bericht noch lesen konnte: „Dieses ARPA-Programm hat nichts weniger als eine Revolution in der Computertechnologie hervorgebracht und war eines der erfolgreichsten Projekte, das die ARPA je durchgeführt hat. Das volle Ausmaß des technischen Wandels, der von diesem Projekt ausgeht, wird sich vielleicht erst in vielen Jahren ermessen lassen.“

1975 erblickte die erste Mailingliste die Screens der Anwender und stellte damit den Vorreiter für eine der wichtigsten Informationsquellen dar. Damals wie heute, knapp 35 Jahre später, stellen Mailinglisten insbesondere in Entwickler- und Aktivistenkreisen ein unverzichtbares Werkzeug dar, um auf einem aktuellen Stand der Dinge zu bleiben, was einzelne Projekte angeht. Auch das legendäre Jargon File von Raphael Finkel wurde in diesem Jahr geboren. In ihm sammelt seitdem die technologieaffine Subkultur, die sich sicherlich teils auch als Hacker bezeichnen darf, Begriffe aus der Szene. So dient das Jargon File als großes Nachschlagewerk für interessierte Menschen, die sich mit den im Netz geltenden Konventionen und teils auch Abstrusitäten sowie dem sehr speziellen Humor auseinandersetzen möchte.

1979 war ein weiterer wichtiger Meilenstein im Bezug auf die Entwicklung des Internet: Das Usenet entstand, eine große Anzahl an Servern, die Inhalte immer wieder neu spiegeln, solange der Betreiber dies für sinnvoll erachtet, wodurch eine Art Verfallsdatum eingeführt wurde. Ursprünglich war das Usenet „nicht mehr“ als das Vorhaben, eine Alternative zum ausschließlich für Militärs zugänglichen Arpanet zu schaffen. So schloss man zwei unter dem Betriebssystem UNIX laufende Rechner zusammen, über die man sich austauschen konnte. Die Idee dazu stammte von Tom Truscott, Steve Bellovin und Jim Ellis. Für den Datenaustausch nutzte man auch hier wieder herkömmliche Telefonleitungen und das in den AT&T Bell Labs entwickelte Unix-Protokoll UUCP (Unix to Unix Copy), welches allerdings damals nur unter Unix laufenden Rechnern die Interaktion ermöglichte. Schnell jedoch entwickelte sich das Projekt weiter und zusätzliche Rechner wurden in das Netz integriert. Dabei kommunizierte man entweder per E-Mail oder in den Vorläufern heutiger Diskussionsforen, den sogenannten Newsgroups.

Um die Informationen übersichtlich zu halten, kategorisierte man diese in die bis heute gültigen Major Seven, oder auch Big Seven genannt: comp: Themen rund um den Computer, sci: Wissenschaft und Technik (science), soc: Gesellschaftlichen Themen (social), talk: allgemeine Gespräche über Gott und die Welt, rec: alle Themen rund um Freizeitgestaltung und Erholung, teils auch Kunst und Kultur (recreational), news: hier ist das Usenet selbst Gesprächsthema, misc: alles, was nicht in einer der oben genannten Newsgroups Thema ist und/oder dort nicht passt (miscellaneous). Gut, ganz treu blieb man sich nicht, denn 1995 erweiterte man diese Hauptgruppen zu den Big Eight, indem man eine neue Hierarchie namens humanities hinzufügte. Da sich die Nutzer des Usenets mit der Zeit quer über die Welt verstreut in aller Herren Länder befanden, kamen nationale Newsgroups in den entsprechenden Sprachen dazu. Ebenso etablierten sich weitere Kategorien, von denen die bekanntesten sicherlich alt und alt.binaries sein dürften. alt wird oftmals mit einer etwas chaotischen und eher ungemaßregelten Struktur umschrieben, wo so ziemlich alles zu finden ist, wo man teilweise (manche sagen oft) auch, nett gesagt, moralisch sehr fragwürdige Inhalte finden kann. alt.binaries dagegen dürfte speziell den minimal gebildeteren Filesharern ein Begriff sein, denn hier werden Files auf Servern hochgeladen und dort ebenso wie die restlichen Inhalte wieder und wieder gespiegelt, bis ihr Verfallsdatum erreicht ist und sie vorläufig im anarchistischen und dennoch funktionierenden Datennirvana verschwinden. Insgesamt schätzt man die Zahl der Newsgroups momentan auf 50.000, was eine eher vorsichtige Schätzung ist, bis hin zu 100.000. Genügend Platz auf den derzeit ca. 6500 Newsservern ist auf jeden Fall noch vorhanden. Einen Zugang zu den Bereichen mit weniger transferlastigen Inhalten wie in alt.binaries bietet heute so ziemlich jeder Standard-Provider. Wichtig zu erwähnen wäre sicherlich noch, dass viele Inhalte archiviert wurden, wie es z.B. Deja News praktizierte, dessen Datenbestände sich nun nach einem Aufkauf von Google in deren Datenbank unter Google Groups wiederfinden. Das jedoch bietet nicht nur Vorteile: So mancher Beitrag, der zumeist unter Realnamen veröffentlicht wurde, ist heute dem Verfasser unangenehm, bzw. kann zu zivilrechtlichen oder strafrechtlichen Problemen führen.

Gehen wir weiter ins Jahr 1984. Nun ist es auch in Deutschland soweit: An der Universität Karlsruhe wird die erste E-Mail verschickt und empfangen. Im selben Jahr wird das Domain Name System (DNS) implementiert, welches eine Auflösung von IP-Adressen in für Menschen einfacher handhabbare Domainnamen ermöglicht. Die erste Domain, die weltweit registriert wird, ist nordu.net. Die dazu passende Webseite existiert bis heute.

In den Jahren 1978 bis 1986 entstanden noch weitere äußerst wichtige Institutionen: 1979 war es Vint Cerf, der noch von der DARPA aus das Internet Configuration Control Board (ICCB) errichtete. Ziel war, die Vision eines freien und offenen Netzes fortzuführen. Vorstand dieser hauptsächlich am MIT ansässigen Gemeinschaft war Dave Clark. 1983 ersetzte das Internet Activities Board (IAB) das ICCB, welches nach der Gründung der Internet Society (ISOC) in Internet Architecture Board umbenannt wurde. Weniger visionär, aber dafür umso mehr technikorientiert waren die Internet Engineering Task Force (IETF) und die Internet Research Task Force (IRTF), welche 1986 ihren Betrieb aufnahmen und in der Hierarchie unterhalb der IAB anzusiedeln sind. Hier setzte man auf ein offenes Forum, an dem sich jeder beteiligen konnte und es keine staatliche Kontrolle oder Reglementierung gab, um Standards zu entwickeln. Ganz im Sinne der Hacker-Ethik war jeder aufgerufen, sich einer kreativen und effizienten sowie eleganten Problemlösung zu widmen. Äußerst treffend beschreiben es wohl die Worte „Theoretisch erhält ein Student, der ein technisch fundiertes Anliegen in Bezug auf ein Protokoll anspricht, dieselbe sorgfältige Beachtung, oder mehr, als jemand von einem Multi-Milliarden-Dollar-Unternehmen, der sich Sorgen über die Auswirkungen auf seine ausgelieferten Systeme macht (Alvestrand, 1996, S. 61).“ Ebenso wird das Konzept der IETF von ihrem Leitspruch kurz, knapp, effizient und elegant auf den Punkt gebracht, welcher da lautet „Wir wollen keine Könige, Präsidenten und Wahlen. Wir glauben an einen groben Konsens und an ablauffähigen Code.“ Diese Worte beschreiben sicher auch gut den wichtigsten Grundsatz der dezentralen Vernetzung und des weitestmöglichen Verzichts auf starre Hierarchien mit möglichst wenig Kontrollen, immer darauf vertrauend, dass sich die Community der User selbständig weiterentwickelt und neue Ideen zu neuen Problemen und Aufgaben durch eine gerechte Verteilung der Ressourcen und des Könnens auf einer möglichst freiwilligen Basis entstehen. Dabei wird versucht, immer so offen wie möglich für andere Menschen zu sein, um die maximale Effizienz durch verteilte und frei zugängliche Informationen zu erreichen.

1986 erkennt man Probleme bei der Interaktion und Kommunikation verschiedener Netze miteinander. Als Lösung entsteht der Internet-Backbone NSFNet. Auch in diesem Jahr entsteht die DE-NIC als Verwaltungsorganisation am Rechenzentrum der Universität Dortmund. Die Allmacht über deutsche Domains erhält sie von der IANA (Internet Assigned Numbers Authority), einer Organisation, die für die Vergabe von IP-Adressen, Top Level Domains und IP-Protokollnummern, sowie die Zuordnung der Ports zuständig ist. Als Vorläufer der IANA ist hier der ehrwürdige und bis dato einzige „Mitarbeiter“ Jon Postel zu nennen. Weitere Dachorganisationen, die mittlerweile für das Delegieren von lokalen Registrationen von Domains zuständig sind, wären ARIN für Nordamerika, RIPE für Europa, APNIC für Asien und die Pazifik-Region, LACNIC für Lateinamerika und die Karibik, sowie AfriNIC für Afrika.

Nachdem man 1987 schon 27.000 vernetzte Rechner verzeichnen konnte, schrieb der bekannte Tim Berners-Lee, seines Zeichens britischer Informatiker und Erfinder der für Webseiten benutzten Sprache HTML (Hypertext Markup Language), das ebenso bekannte „Information Management: A Proposal“, quasi ein erster Entwurf für die Entwicklung des World Wide Web. Seinen ersten Kontakt zu seinem damaligen Arbeitgeber, dem europäischen Kernforschungszentrum CERN, hatte er als beratender Ingenieur. Das CERN wiederum hatte zu dieser Zeit das Problem, dass manche Laboratorien auf französischem und schweizerischem Gebiet verteilt waren und deren Kommunikationsnetze nicht zusammenarbeiteten.

So schlug Berners-Lee seinem Arbeitgeber CERN ein Projekt vor, das auf dem Prinzip des bereits genannten Hypertexts beruhte und den weltweiten Austausch sowie die Aktualisierung von Informationen zwischen Forschern vereinfachen sollte. Hierzu entwickelte er sowohl den ersten Browser WorldWideWeb als auch den ersten Webserver unter dem Betriebssystem NeXTStep. Einige Jahre später, 1994, gründete Berners-Lee das World Wide Web Consortium (W3C) am Massachusetts Institute of Technology, ein Gremium zur Standardisierung der dem World Wide Web zu Grunde liegenden und dort genutzten Techniken. Auch wenn das W3C keine zwischenstaatlich anerkannte Organisation ist und damit keine Berechtigung zur Festlegung von ISO-Normen hat, so legt sie doch De-Facto-Standards fest. Dieser Prozess der Empfehlungen läuft über mehrere Arbeitsschritte. So gibt es einen Arbeitsentwurf (Working Draft), den letzten Aufruf (Last Call Working Draft), den Empfehlungskandidat (Candidate Recommendation), sowie den Empfehlungsvorschlag (Proposed Recommendation). Durch diese offene Arbeitsweise entstanden über die Jahre bereits viele bekannte De-Facto-Standards wie die Hypertext Markup Language (HTML), Extensible Hypertext Markup Language (XHTML), Extensible Markup Language (XML), Extensible Stylesheet Language (XSL), Cascading Style Sheets (CSS), Portable Network Graphics (PNG), Really Simple Syndication (RSS), oder auch das Document Object Model (DOM). Diese Standards sollen die Erstellung von Internetseiten vereinheitlichen und so auch einen fehlerfreien Betrieb auf verschiedenen Browsern und Betriebssystemen erleichtern.

1989 ist auch das Jahr, in dem die ersten deutschen Internetanschlüsse in Betrieb genommen werden. Zu diesen zählen Projekt EUnet, die Universität Dortmund; Arbeitsgruppe Xlink, Prof. Werner Zorn und die Universität Karlsruhe. 1990 ist es dann endlich soweit und das Internet steht nicht mehr nur militärischen Einrichtungen und Universitäten zur Verfügung, sondern allen Menschen. Im selben Jahr wird auch das Arpanet komplett außer Betrieb genommen. Ende 1990 veröffentlichen Tim Berners-Lee und Robert Cailliau das bereits genannte Konzept für ein weltweites Hypertext-Projekt, welches 1991 erstmalig am CERN zum Einsatz kommt und ab 1993 tatsächlich weltweit genutzt wird.

1993 richtet die IRB Dortmund mit ihrem Auftritt im Netz gleichzeitig einen der ersten Webserver in Deutschland ein, von denen es zu dieser Zeit noch weniger als 15 Stück gibt. Letzteres ändert sich jedoch bis zum Jahresende, als man bereits von stolzen 500 Webservern hierzulande sprechen kann. Nachdem man im Verlauf des Jahres immer mehr Registrierungen von .de-Domains verzeichnete und die Nachfrage nach Registry-Dienstleistungen wuchs, wurde der IV-DENIC („Interessensverbund Deutsches Network Information Center“) gegründet. Dabei übernahm die Universität Karlsruhe den administrativen und technischen Betrieb, während die Finanzierung von der IV-DENIC ausging.

Im Folgejahr kam es dann zur ersten „Kommerzialisierung“ des Internet. Zu dieser Zeit gab es mehr User, die kommerzielle Interessen verfolgten, als es wissenschaftlichen Zwecken diente. Der „Ewige September“ (auch: der September, der nie endete oder der endlose September, englisch Eternal September, the September that never ended bzw. endless September), hielt von nun an Einzug. Gemeint war mit diesem im Usenet geprägten Begriff die Verschlechterung des Klimas und ein zunehmend sinkendes Niveau der Diskussionen im Usenet aufgrund steigender Teilnehmerzahlen. Nun, die zu dieser Zeit ca. drei Millionen vernetzten Rechner wurden eben genutzt und die Menschen blieben schlicht und ergreifend die gleichen, auch wenn das Internet noch zu einer Revolutionierung der Informationsbeschaffung führte. Inwiefern das der Einzelne allerdings nutzt und nutzen kann, das ist bis heute ein anderes Thema.

Ein weiterer Zwischenschritt und vor allem für die Zukunft wichtiger Bestandteil startete 1995: Bislang wird das IPv4-Protokoll eingesetzt, um Server eindeutig zu identifizieren. Dabei handelt es sich um eine Zählweise, die auf 32 Bits, also 4 Oktetts (Bytes) basiert. Die dadurch entstehende maximale Anzahl unterschiedlicher Adressen beträgt 2³², also 4.294.967.296. Wenn man nun also weiter überlegt, so bemerkt man, dass diese Zahl verhältnismäßig schnell erreicht werden würde auf lange Sicht. Also brauchte man einen Ersatz, um auch langfristig genug Adressen für jeden Rechner und irgendwann auch weitere ans Internet angeschlossene und kommunizierende Geräte zu haben. Es entstand also die Idee IPv6 irgendwann als neue Grundlage für Berechnungen zu nehmen, was dann ein schon eher akzeptables Maximum von 2128 = 25616 (= 340.282.366.920.938.463.463.374.607.431.768.211.456 ≈ 3,4 x 1038) ergibt. Somit könnte man auch die oftmals mehr oder weniger scherzhaft genannte Peripherie der Netz-Zukunft in Form von Toaster, Mikrowelle und Kühlschrank problemlos mit dem Anwender und untereinander kommunizieren lassen.

1997 hatte sich die Zahl der vernetzten Rechner schon verdoppelt und sechs Millionen Computer konnten den Anwender miteinander verbinden und Informationen liefern oder senden. Der University Corporation for Advanced Internet Development (UCAID) ging das alles dann noch zu langsam und man wollte sich auch hier zukunftsorientiert betätigen und so startete man mit der Entwicklung des unter Codenamen Abilene laufenden Internet2, diesmal jedoch komplett ohne militärischen Hintergrund. Grundkonzept war, hier nun auf Glasfaser zu setzen anstatt auf herkömmliche Telefonleitungen und damit Übertragungsraten von bis zu 2.48 Gbit/s und mehr zu erreichen. Die anfänglich 115 vernetzten amerikanischen Universitäten und Forschungseinrichtungen wuchsen dann 2004 in ihrer Zahl auf bereits mehr als 200 an. 1999 unterzeichneten Partnerorganisationen aus Deutschland, Frankreich, Italien und Großbritannien ein Memorandum of Understanding mit der UCAID, womit man sich dem Hochgeschwindigkeitsnetz anschloss. So verband das 2000 eingeführte, auf hauptsächlich 10-Gbit-Leitungen basierende und von dem Deutschen Forschungsnetzwerk (DFN) betriebene G-WiN mehr als 500 deutsche Universitäten und Forschungseinrichtungen, wurde dann jedoch vom bis zu 1.000 GBit/s (1 Terabit/s) schnellen X-WiN abgelöst.

Erwähnenswert bezüglich dem Streben nach Geschwindigkeit ist sicherlich auch der Rekord einiger Techniker rund um Professor Steven Low, die über 101,1 Gbit/s auf der Strecke zwischen Los Angeles und Pittsburgh erreichten. Kaum vorstellbar wäre eine solche Zahl gewesen, wenn man an die Anfänge im Netz mit Akustikkopplern denkt, die zu ihrer Zeit nur 300 bis zu 2.400 Baud erreichten. Wie sich Heimanwender ins Internet einwählen Wie sich Heimanwender ins Internet einwählen.

Einen letzten Schritt zurück muß man noch tun, um die im Jahr 1998 entstandene ICANN (Internet Corporation for Assigned Names and Numbers) zu nennen, eine privatrechtliche Non-Profit-Organisation US-amerikanischen Rechts, deren Sitz in Kalifornien liegt. Aufgabe dieser äußerst wichtigen Einrichtung ist die Koordination technischer Aspekte des Internet in Form von Festlegungen bezüglich der Verwaltung von Top-Level-Domains, IP-Vergaben und ähnlichem. Dies geschieht jedoch, ohne dass man dort verbindliches Recht festlegen würde. Entstanden ist die ICANN ursprünglich aus einem Zusammenschluss verschiedener Interessenverbände aus Wirtschaft, Technik, Wissenschaft und Nutzern. Sieht man es vom gesetzlichen Standpunkt aus, so ist es dennoch eine rein private Institution, bzw. eine Stiftung. Dennoch unterliegt sie US-amerikanischem Recht, auch wenn ihr mittlerweile im „Regierungsbeirat“ (Governmental Advisory Committee, GAC) die Regierungen der Welt innewohnen und dieser seinen Sitz bei der EU-Komission in Brüssel hat. Dies ist allerdings eine Neuerung, die erst kürzlich am 1. Oktober 2009 zustande kam. So gilt seit Anfang Oktober eine „Erklärung verbindlicher Vereinbarungen“ (Affirmation of Commitments), welches das bisherige Abkommen (Joint Project Agreement, JPA) ablöst und sicherstellen soll, dass die ICANN satzungsgemäß arbeitet und entscheidet. Zuvor, also bis zum 30.09.2009, unterstand man dem US-Handelsministerium (Department of Commerce).