Das ARPA-Net

Die Ursprünge des heutigen Internet reichen in die 60er Jahre zurück. Es war die Zeit des Kalten Krieges zwischen den beiden Weltmächten USA und UdSSR. Neue Impulse in der Elektronischen Datenverarbeitung (EDV) kamen in jener Zeit hauptsächlich durch militärische Initiativen zustande. Mittlerweile gibt es im Internet Proteste gegen die Auffassung, militärische Interessen hätten das Internet geboren. Das ist insofern berechtigt, als es keine unmittelbare Ursachen-Wirkungs-Verhältnisse gibt. Doch die technologischen Ideen und Entwicklungen der Vorläufernetze kamen definitiv aus dem militärnahen Umfeld in den USA, und es ist deshalb auch nicht verkehrt, das so darzustellen.

Im Department of Defense, dem amerikanischen Verteidigungsministerium, wurde seit den frühen 60er Jahren überlegt, wie man wichtige militärische Daten besser schützen könnte. Selbst bei einem atomaren Angriff des Gegners sollten die Daten nicht zerstört werden können. Als Lösung kam nur ein elektronisches Datennetz in Frage. Die gleichen Daten sollten dabei auf mehreren, weit entfernten Rechnern abgelegt werden. Bei neuen oder geänderten Daten sollten sich alle angeschlossenen Rechner binnen kürzester Zeit den aktuellen Datenstand zusenden. Jeder Rechner sollte dabei über mehrere Wege mit jedem anderen Rechner kommunizieren können. So würde das Netz auch dann funktionieren, wenn ein einzelner Rechner oder eine bestimmte Leitung durch einen Angriff zerstört würde. So gab die US Air Force 1964 bei der RAND Corporation das so genannte "dezentrale Netzwerk" in Auftrag. Bei dem, was da entwickelt werden sollte, handelt es sich noch nicht um den direkten Vorläufer des heutigen Internet. Nach vielem Hin und Her scheiterte dieses Projekt auch und wurde nie realisiert. Die Idee des "dezentralen Netzwerks" mit der paketweisen Datenübertragung blieb jedoch in den Köpfen hängen.

Die Advanced Research Projects Agency (ARPA), eine seit 1958 bestehende wissenschaftliche Einrichtung, deren Forschungsergebnisse in militärische Zwecke einflossen, entschloss sich 1966 zur Vernetzung der ARPA-eigenen Großrechner. Dabei wurde die Idee des "dezentralen Netzwerks" wieder aufgegriffen. Ende 1969 waren die ersten vier Rechner an das ARPA-Net angeschlossen. Drei Jahre später waren es bereits 40 Rechner. In dieser Zeit war es jedoch das ARPA-eigene Netz. In den ersten Jahren wurde das Netz deshalb auch ARPA-Net genannt. Aus ihm sollte später das Internet entwachsen.

Die Geschichte des Internet beginnt also in der Zeit der ersten Mondlandung und in jener Zeit, als die Hippies das Zeitalter des Wassermanns heraufziehen sahen.

Informationen zum ARPA-Net im WWW:

englischsprachige SeiteDefense Advanced Research Projects Agency (DARPA)

 


Wissenschaftliche Einrichtungen

Das Prinzip der vernetzten Rechner war aber nicht nur für militärische Zwecke interessant. Man erkannte schnell, dass auch der akademische Betrieb vom ARPA-Net profitieren würde. Für Wissenschaftler war allerdings weniger das Synchronisieren von gleichen Daten auf mehreren Rechnern interessant, sondern eher die Möglichkeit, Daten von einem anderen Rechner abzurufen. Wegen der offenen Architektur des ARPA-Net stand einer solchen Verwendung nichts im Wege. Wissenschaftler konnten von den frühen 70er Jahren an Forschungsergebnisse anderer Institute über das ARPA-Net abrufen oder anderen angeschlossenen Instituten eigene Daten zur Verfügung stellen.

Die Anzahl der angeschlossenen Rechner stieg an. Es handelte sich um sehr unterschiedliche Rechnertypen mit nicht kompatiblen Betriebssystemen und unterschiedlichem Netzzugang. Großrechner verschiedener Fabrikate, Unix-Rechner und später auch Personal Computer drängten ins Netz. Einige hatten eine Standleitung, also eine ständige Internet-Verbindung, andere wählten sich über Telefon und Modem ein. Um die unterschiedlichen Voraussetzungen unter einen Hut zu bringen, entstand die Notwendigkeit, ein neues Datenübertragungsprotokoll für das Netz zu entwickeln. Das Protokoll sollte nicht an bestimmte Computersysteme, Übertragungswege oder Übertragungsgeschwindigkeiten gebunden sein. Aus den Bemühungen um ein solches Protokoll ging schließlich das TCP/IP-Protokoll hervor. Datenübertragungen im ARPA-Net liefen nach Einführung von TCP/IP nach einem einheitlichen und standardisierten Schema ab.

Zu den wissenschaftlichen Einrichtungen gehörten natürlich auch Studenten. Die entdeckten das Netz auf ihre Weise. Eine Art "black board" war ihr Wunsch, ein Nachrichtenbrett wie in Universitäten üblich, für Mitfahrgelegenheiten, Jobs, Wohnmöglichkeiten, Reisepartner oder die Möglichkeit, einfach nur zu diskutieren und zu labern. So entstand das Usenet, die Hauptader der heutigen Newsgroups. Viele eingefleischte "Internetter" halten die Newsgroups auch heute noch für den spannendsten und lebendigsten Teil des Internet.

 


Das Netz der Netze

Der Anschluss der akademischen Welt ans Netz erforderte eine Trennung zwischen militärischem und zivilem Teil, da die Militärs ihre eigenen Interessen wahren wollten. So kam es, dass Anfang der 80er Jahre ein neues militärisches Datennetz, das Milnet, vom ARPA-Net abgekoppelt wurde. Das ARPA-Net selbst wurde dem wissenschaftlichen Betrieb überlassen.

In diesem zivilen Teil des Netzes nahm die Anzahl der angeschlossenen Rechner im Laufe der 80er Jahre sprunghaft zu. Eine wichtige Rolle spielte dabei die amerikanische National Science Foundation (NSF). Diese Organisation schaffte ein Leitungs-Verbundsystem, das alle bedeutenden wissenschaftlichen Rechenzentren des Landes miteinander verband. Einzelne Universitätsrechner oder kleinere Rechnernetze konnten sich mit einem Rechenzentrum verbinden und darüber in andere Netze gelangen. So entstand buchstäblich ein Netz der Netze. Alsbald bürgerte sich denn auch der Name "Internet" dafür ein. Die Bezeichnung "ARPA-Net" wurde Ende der 80er Jahre verworfen. Das Leitungs-Verbundsystem, über das die kleineren Einzelnetze zu einem Gesamtnetz wurden, erhielt die treffende Bezeichnung Backbone (Rückgrat).

In Europa gab es zeitgleich ähnliche Entwicklungen. Auf dem alten Kontinent setzte man jedoch zunächst auf ISO-Normen. Von dem amerikanischen TCP/IP-Modell, das nicht ISO-normiert war, wollte man deshalb nichts wissen. 1986 wurde die Organisation RARE (Réseaux Associés pour la Recherche Européenne) gegründet. Diese Organisation sollte alle Initiativen zur systemübergreifenden Rechnervernetzung europaweit koordinieren. RARE rief dazu ein Projekt namens COSINE (Cooperation for an Open Systems Interconnection Networking in Europe) ins Leben.

Der Siegeszug des TCP/IP-Protokolls war jedoch nicht mehr aufzuhalten. Unter dem Druck des Erfolgs in Amerika entstand schließlich ein europäisches Datennetz, das multiprotokollfähig war und unter anderem TCP/IP unterstützte. Dieses Netz lief zunächst unter der Bezeichnung EuropaNET. Verschiedene nationale wissenschaftliche Netzwerke, etwa das Deutsche Forschungsnetz (DFN), wurden daran angeschlossen.

Mittlerweile sorgt eine transatlantische Leitung für die Anbindung Europas an den Backbone in den USA. Die Koordination des Internet-Verkehrs innerhalb Europas wurde der Organisation RIPE (Réseaux IP Européens) übertragen. Auch in Europa gibt es seit 1992 ein Leitungs-Verbundsystem: dieses System nennt sich Ebone (Europäischer Internet-Backbone) (welches aufgrund der Pleite des neuen Besitzers im Jahre 2002 den Betrieb einstellen musste). Auf anderen Kontinenten gab und gibt es vergleichbare Entwicklungen.

Was wir also heute unter "Internet" verstehen, ist nicht ein einziges homogenes Netz, sondern ein Verbund aus vielen kleinen, territorial oder organisatorisch begrenzten Netzen. Diese Netze besitzen eine Anbindung an die Backbones und damit an das Gesamtnetz. Auch kommerzielle Internet-Provider hängen an entsprechenden Netzen. Und Endanwender, die ihren Internet-Zugang in Form einer Verbindung zu einem solchen Provider haben, können über diese Brücke das gesamte Internet nutzen.

Ein paar Adressen im WWW zu diesen Themen:

englischsprachige SeiteNational Science Foundation (NSF)
deutschsprachige SeiteDeutsches Forschungsnetz (DFN)
englischsprachige SeiteRéseaux IP Européens (RIPE)

 


Das TCP/IP-Protokoll

TCP/IP ist der kleinste gemeinsame Nenner des gesamten Datenverkehrs im Internet. Erst durch dieses Protokoll wurde historisch gesehen aus einem begrenzten Netz ein Netz der Netze. Egal, ob Sie Web-Seiten aufrufen, E-Mails versenden, mit FTP Dateien downloaden oder mit Telnet auf einem entfernten Rechner arbeiten: stets werden die Daten auf gleiche Weise adressiert und transportiert. TCP bedeutet Transmission Control Protocol (Protokoll für Übertragungskontrolle), IP bedeutet Internet Protocol.

Wenn Sie eine E-Mail verschicken oder eine HTML-Datei im Web aufrufen, werden die Daten bei der Übertragung im Netz in kleine Pakete zerstückelt. Jedes Paket enthält eine Angabe dazu, an welche Adresse es geschickt werden soll, und das wievielte Paket innerhalb der Sendung es ist.

Die Adressierung besorgt das IP. Dazu gibt es ein Adressierungsschema, die so genannten IP-Adressen.

Damit die Datenpakete auch wirklich beim Empfänger ankommen, und zwar in der richtigen Reihenfolge, dafür sorgt das TCP. Das TCP verwendet Sequenznummern für die einzelnen Pakete einer Sendung. Erst wenn alle Pakete einer Sendung vollständig beim Empfänger angekommen sind, gilt die Übertragung der Daten als abgeschlossen.

Jeder Rechner, der am Internet teilnimmt, ist mit einer IP-Adresse im Netz angemeldet. Rechner, die ans Internet angeschlossen sind, werden als Hosts oder Host-Rechner bezeichnet. Wenn Sie also mit Ihrem PC im Web surfen oder neue E-Mails abholen, sind Sie mit einer IP-Adresse im Internet angemeldet. Ihr Zugangs-Provider, über dessen Host-Rechner Sie sich einwählen, kann feste IP-Adressen für Sie einrichten. Große Zugangs-Provider, etwa Online-Dienste wie T-Online oder AOL, vergeben auch personenunabhängig dynamische IP-Adressen für jede Internet-Einwahl. Damit ein Rechner am Internet teilnehmen kann, muss er über eine Software verfügen, die das TCP/IP-Protokoll unterstützt. Unter MS Windows ist das beispielsweise die Datei winsock.dll im Windows-Verzeichnis.

 


IP-Adressierung

Eine IP-Adresse besteht aus vier Bytes, also 32 Bits, und man notiert sie üblicherweise als vier Dezimalzahlen zwischen 0 und 255, die durch Punkte getrennt sind. Eine typische IP-Adresse sieht in dieser Dezimalschreibweise, die auch dotted quad notation oder dotted decimal notation genannt wird, so aus: 149.174.211.5. Die Punkte dienen dabei einfach der Übersichtlichkeit.  Mehrere benachbarte IP-Adressen fasst man zu logischen Netzen zusammen. Der vordere Teil der IP-Adresse, die Netzwerknummer, bezeichnet das Netz und der Rest, die Hostnummer den Host in diesem Netz, ähnlich wie eine vollständige Telefonnummer zum Teil aus einer Ortsvorwahl besteht. Welcher Teil zur Netzwerknummer gehört wird durch die Netzmaske bestimmt.

Früher waren die IP-Adressen nach der ersten Zahl in eine Hand voll Klassen eingeteilt und jeder Klasse war eine feste Subnetzmaske zugewiesen. Dieses Verfahren war jedoch zu starr und es ist heute bestenfalls noch historisch relevant. Seit etwa Mitte der 90er Jahre verwendet man stattdessen das CIDR-Verfahren (Classless Inter-Domain Routing, klassenloses domainübergreifendes Routing). Die Netzmaske wird dann durch ein Präfix in der Form /x (wobei x eine Zahl zwischen 32 und 0 ist) angegeben. Die Zahl bestimmt die Größe der Netznummer in Bit, entspricht also quasi der Länge der Vorwahl in einer Telefonnummer. Je größer die Zahl ist, desto länger ist die Netznummer, umso mehr verschiedene Netznummern kann es also mit dieser Länge geben. Da die Länge der IP-Adresse fest ist, bedeutet eine längere Netznummer aber gleichzeitig, dass es weniger verschiedene Hostnummern pro Netz gibt.

Durch die Vergabe dynamischer IP-Adressen pro Einwahl können Netzbetreiber die Anzahl der tatsächlich internet-fähigen Anschlüsse deutlich höher halten, als wenn wirklich nur jeder Rechner eine feste Adresse erhalten würde, egal ob er online ist oder nicht. Auf diese Weise werden auch als kostbar angesehene IP-Adressen gespart. Zwar gibt es keinen wirklich akuten Adressmangel - 2004 waren gerade einmal etwas mehr als die Hälfte aller möglichen IP-Adressen vergeben -, doch man arbeitet trotzdem bereits an einer neuen Version des Internet-Protokolls, die unter anderem einen wesentlich größeren Adressraum bietet. Dieses Internet Protocol version 6 (IPv6) benutzt 128 Bit große Adressen und bietet noch andere lang ersehnte Verbesserungen. Es wird zur Zeit zunehmend parallel zur alten Version 4 (IPv4) verbreitet.

 


Client-Server-Technologie

Client-Server-Technologie

Für die einzelnen Internet-Dienste wie World Wide Web, Gopher, E-Mail, FTP usw. muss auf einem Host-Rechner, der anderen Rechnern diese Dienste anbieten will, eine entsprechende Server-Software laufen.

Ein Host-Rechner kann einen Internet-Dienst nur anbieten, wenn eine entsprechende Server-Software auf dem Rechner aktiv ist, wenn der Rechner "online" ist und wenn keine schützende Software (Firewall) den Zugriff von außen verhindert bzw. einschränkt.

Server sind Programme, die permanent darauf warten, dass eine Anfrage eintrifft, die ihren Dienst betreffen. So wartet etwa ein Web-Server darauf, dass Anfragen eintreffen, die Web-Seiten auf dem Server-Rechner abrufen wollen.

Clients sind dagegen Software-Programme, die typischerweise Daten von Servern anfordern. Ihr Web-Browser ist beispielsweise ein Client. Wenn Sie etwa auf einen Verweis klicken, der zu einer HTTP-Adresse führt, startet der Browser, also der Client, eine Anfrage an den entsprechenden Server auf dem entfernten Host-Rechner. Der Server wertet die Anfrage aus und sendet die gewünschten Daten. Um die Kommunikation zwischen Clients und Servern zu regeln, gibt es entsprechende Protokolle. Client-Server-Kommunikation im Web etwa regelt das HTTP-Protokoll. Ein solches Protokoll läuft oberhalb des TCP/IP-Protokolls ab.

Dass ein Client Daten anfordert und ein Server die Daten sendet, ist der Normalfall. Es gibt jedoch auch "Ausnahmen". So kann ein Client nicht nur Daten anfordern, sondern auch Daten an einen Server schicken: zum Beispiel, wenn Sie per FTP eine Datei auf den Server-Rechner hochladen, wenn Sie eine E-Mail versenden oder im Web ein Formular ausfüllen und abschicken. Bei diesen Fällen redet man auch von Client-Push ("Client drängt dem Server Daten auf").

Ein anderer Ausnahmefall ist es, wenn der Server zuerst aktiv wird und dem Client etwas ohne dessen Anforderung zuschickt. Das nennt man Server-Push ("Server drängt dem Client Daten auf"). Einige Technologien wollten diesen Ausnahmefall vor einigen Jahren zu einer Regel erheben mit den so genannten Push-Technologien. Diese Technologien sollten ermöglichen, dass ein Client regelmäßig Daten empfangen kann, ohne diese eigens anzufordern. Das ermöglicht Broadcasting-Dienste wie aktuelle Nachrichten. Netscape und Microsoft Internet Explorer (beide ab Version 4.0) bauten entsprechende Schnittstellen, um solche Dienste in Anspruch zu nehmen. Man kann jedoch von Glück sagen, dass sie sich nicht durchsetzten. Das Internet ist eben nicht Fernsehen, sondern ein Medium, das von der Aktivität der Anwender lebt, nicht von deren Konsumbeflissenheit.

 


DNS - Domain Name Service

Computer können mit Zahlen besser umgehen, Menschen in der Regel besser mit Namen. Deshalb hat man ein System ersonnen, das die nummerischen IP-Adressen für die Endanwender in anschauliche Namensadressen übersetzt.

Dieses System ist ähnlich wie das der IP-Adressen hierarchisch aufgebaut. Eine Namensadresse (Domain-Name) in diesem System gehört zu einer Top-Level-Domain. Die einzelnen Teile solcher Namensadressen sind wie bei IP-Adressen durch Punkte voneinander getrennt. Namensadressen (Domains) sind beispielsweise yahoo.com, mozilla.org oder denic.de.

Top-Level-Domains stehen in so einem Domain-Namen an letzter Stelle. Es handelt sich um einigermaßen sprechende Abkürzungen. Die Abkürzungen, die solche Top-Level-Domains bezeichnen, sind entweder Landeskennungen oder Typenkennungen. Beispiele sind:
de = Deutschland
at = Österreich
ch = Schweiz
it = Italien
my = Malaysia
com = Kommerziell orientierter Namensinhaber
org = Organisation
net = Allgemeines Netz
edu = Hochschulen
gov = Behörden
mil = amerikanische Militäreinrichtungen

Im Jahre 2000 wurden sieben neue Top-Level-Domains ausgewählt und danach bis 2002 für die Nutzung aktiviert. Diese sind:
biz = Unternehmen
pro = Professionals (Anwälte, Steuerberater, Ärzte usw., die eine staatliche Zulassung nachweisen können)
name = Privatpersonen
info = Informationsdienste aller Art
museum = Museen
aero = Flugunternehmen, Flughäfen, Reiseveranstalter usw.
coop = Genossenschaften, Verbände, Organisationen

Jede Top-Level-Domain stellt einen Verwaltungsbereich dar, für den es eine "Verwaltungsbehörde" gibt, die für die Namensvergabe von Domains innerhalb ihres Verwaltungsbereichs zuständig ist. Wenn Sie beispielsweise einen Domain-Namen wie MeineFirma.de beantragen wollen, muss der Antrag an das DENIC (Deutsches Network Information Center) gestellt werden. Kommerzielle Provider erledigen das für Sie, wenn Sie dort einen entsprechenden Service in Anspruch nehmen. Ihren Wunschnamen erhalten Sie aber nur, wenn die Namensadresse noch nicht anderweitig vergeben wurde. Schlaufüchse sind daher auf die Idee gekommen, tausende Domain-Namen für sich zu reservieren, um sie dann an Interessenten weiterzuverkaufen. Mittlerweile gibt es um die Domain-Namen leider schon eine ganze Latte von Schauergeschichten und Rechtsstreitigkeiten. Wenn etwa zwei zufällig gleichnamige Firmen, die sonst nichts miteinander zu tun haben, den gleichen Domain-Namen reservieren lassen wollen, kann nur eine der Firmen den Zuschlag erhalten. Beliebt geworden sind angesichts der Namensknappheit mittlerweile auch längere Namensadressen wie heute-geh-ich-ins-kino.de.

Inhaber von Domain-Namen können nochmals Sub-Level-Domains vergeben. So gibt es beispielsweise eine Domain namens seite.net. Die Betreiber dieser Domain haben nochmals Sub-Domains vergeben, wodurch Domain-Adressen wie java.seite.net oder javascript.seite.net entstanden.

 


Routing und Gateways

Im Internet als dem Netz der Netze ist es zunächst nur innerhalb des eigenen Subnetzes möglich, Daten direkt von einer IP-Adresse zu einer anderen zu schicken. In allen anderen Fällen, wenn die Daten an eine andere Netzwerknummer geschickt werden sollen, treten Rechner auf den Plan, die den Verkehr zwischen den Netzen regeln. Solche Rechner werden als Gateways bezeichnet. Diese Rechner leiten Daten von Host-Rechnern aus dem eigenen Subnetz an Gateways in anderen Subnetzen weiter und ankommende Daten von Gateways anderer Subnetze an die darin adressierten Host-Rechner im eigenen Subnetz. Ohne Gateways gäbe es gar kein Internet.

Das Weiterleiten der Daten zwischen Subnetzen wird als Routing bezeichnet. Die Beschreibung der möglichen Routen vom eigenen Netzwerk zu anderen Netzwerken sind in Routing-Tabellen auf den Gateway-Rechnern festgehalten.

Zu den Aufgaben eines Gateways gehört auch, eine Alternativ-Route zu finden, wenn die übliche Route nicht funktioniert, etwa, weil bei der entsprechenden Leitung eine Störung oder ein Datenstau aufgetreten ist. Gateways senden sich ständig Testpakete zu, um das Funktionieren der Verbindung zu testen und für Datentransfers "verkehrsarme" Wege zu finden.

Wenn also im Internet ein Datentransfer stattfindet, ist keinesfalls von vorneherein klar, welchen Weg die Daten nehmen. Sogar einzelne Pakete einer einzigen Sendung können völlig unterschiedliche Wege nehmen. Wenn Sie beispielsweise von Deutschland aus eine Web-Seite aufrufen, die auf einem Rechner in den USA liegt, kann es sein, dass die Hälfte der Seite über den Atlantik kommt und die andere über den Pazifik, bevor Ihr Web-Browser sie anzeigen kann. Weder Sie noch Ihr Browser bekommen davon etwas mit.

 


Selbstorganisation im Internet

In Anbetracht der Teilnehmerzahl im Internet ist der Verwaltungsaufwand im Netz vergleichsweise klein. Die meisten Endanwender wissen nicht einmal, dass es solche Verwaltungsstellen überhaupt gibt.

Eine gesetzgeberische Institution, wie es sie etwa innerhalb des Verfassungsbereichs eines Staates gibt, gibt es im Internet als weltweitem Verbund nicht. Der Versuch, die ICANN-Behörde als oberste Vergabestelle für Domains und IPs zu etablieren, hat viel Staub aufgewirbelt, aber die Befürchtungen, dass da eine zentralistische Internet-Diktatur entsteht, haben sich bislang nicht bestätigt. Viele Bereiche im Internet beruhen faktisch auf Selbstorganisation. Bei Diensten wie E-Mail galt beispielsweise lange Zeit das stille Abkommen, dass jeder beteiligte Gateway alle E-Mails weiterleitete, auch wenn weder Sender noch Empfänger dem eigenen Subnetz angehörten. In der Anfangszeit des Internets konnten nämlich noch nicht alle angeschlossenen Server jederzeit jeden anderen Server direkt erreichen - diese Weiterleitung galt als eine Art freundlicher Nachbarschaftshilfe. Die Kosten trug der weiterleitende Netzbetreiber, der aber seinerseits von der Weiterleitung anderer Server auch für die eigenen E-Mails profitierte. Heutzutage ist das unkontrollierte Weiterleiten beliebiger E-Mails zu einem ernsten Ärgernis geworden, weil Spammer diesen Mechanismus zur Verbreitung ihrer unerwünschten Werbebotschaften mißbrauchen - und da mittlerweile jeder Mailserver direkt jeden anderen Mailserver erreichen kann, ist es zum Glück überflüssig geworden, die E-Mails auf diese Weise über mehrere Stationen weiterleiten zu müssen.

Die Funktionsfähigkeit des Internet basiert also auf der Bereitschaft der Beteiligten, keine Pfennigfuchserei zu betreiben! Großzügigkeit hat das Internet geschaffen, und Kleingeisterei ist der größte Feind der Internet-Idee.

Das Usenet, also der größte Teil der Newsgroups, organisiert sich sogar vollständig selbst, weshalb leidenschaftliche Anhänger dieses System gerne als real existierendes Beispiel für Herrschaftsfreiheit anführen. Die "Verwaltung" findet im Usenet in speziellen Newsgroups statt (solchen, die mit news. beginnen). Dort können beispielsweise Vorschläge für neue Gruppen eingebracht werden, und in Abstimmungen wird darüber entschieden, ob eine Gruppe eingerichtet oder abgeschafft wird.

Offizielle Anlaufstellen gibt es für die Vergabe von Netzwerkadressen (IP) und für Namensadressen (DNS). Für die Vergabe von IP-Adressen innerhalb eines Netzwerks ist der jeweilige Netzbetreiber verantwortlich. Dazu kommen Organisationen, die sich um Standards innerhalb des Internets kümmern.

Die Kosten für die Datenübertragungen im Internet tragen die Betreiber der Subnetze. Diese Kosten pflanzen sich nach unten fort zu Providern innerhalb der Subnetze bis hin zu Endanwendern, die über Provider Zugang zum Internet haben oder Internet-Services wie eigene Web-Seiten nutzen.

Die folgende Liste enthält einige Verweise zu den wichtigsten internationalen und nationalen Organisationen im Internet:

Deutsches Network Information Center (DENIC)
Vergabestelle für Domain-Namen unterhalb der Top-Level-Domain .de

International Network Information Center (InterNIC)
Zentralstelle für diverse Top-Level-Domains, geführt von der ICANN.

The Internet Corporation for Assigned Names and Numbers (ICANN)
Oberste Organisation für die technische Regulierung des Internets (z.B. Schaffung von neuen Top-Level-Domains).

Internet Architecture Board (IAB)
Organisation zur Dokumentation der Netzstruktur und der grundsätzlichen Abläufe im Internet.

Internet Assigned Numbers Authority (IANA)
Zentrale Koordinationsstelle für Internet-Protokolle und die Vergabe von IP-Adressräumen an regionale Verwaltungen (z.B. ARIN (Nordamerika), RIPE (Europa), APNIC (Asien)).

Internet Engineering Task Force (IETF)
Internationale Gemeinschaft von kommerziellen und nichtkommerziellen Aktiven im Internet mit dem Ziel, technische Standards im Internet vorzuschlagen.

Internet Society
Internationale Organisation für die Kooperation und Koordination von Technologien und Anwendungen im Internet.

W3-Konsortium
Organisation, die speziell die Weiterentwicklung technischer Standards des World Wide Web koordiniert, etwa HTML oder das HTTP-Protokoll.

Vor allem jene Organisationen, die sich um die technische Weiterentwicklung im Internet kümmern, werden zunehmend von großen Software-Firmen wie Microsoft, Netscape oder Sun bestürmt, da diese Firmen ein Interesse daran haben, ihren Software-Produkten und hauseigenen Standards bei Server-Technologien, Programmiersprachen usw. zum Status weltweiter Internet-Standards zu verhelfen. Ob und wie weit es gelingt, im Internet angesichts des entstehenden Milliardenmarkts neue, firmenunabhängige Standards durchzusetzen, die so erfolgreich werden wie HTML oder HTTP, muss die Zukunft zeigen. Derzeit sieht es gar nicht schlecht aus. Die meisten Computer-Konzerne haben begriffen, dass firmenunabhängige Standards ihnen selber letztlich auch mehr bringen. Und der Druck aufgeklärter Anwender, die keine Lust mehr haben, wegen allem und jedem eine neue, proprietäre Software kaufen zu müssen, die nach ein paar Jahren wieder "out" ist und vom Markt verschwindet, wächst ebenfalls.

 


E-Mail

E-Mail (elektronische Post) ist wohl der am meisten genutzte Internet-Dienst. E-Mail erlaubt die persönliche Übermittlung von Nachrichten und Dateien von einem Sender an einen Empfänger. Wer an diesem Dienst teilnehmen will, braucht eine eigene E-Mail-Adresse. Solche Adressen sind an dem berühmten @ (sprich: englisch "at", also "bei" - das Zeichen wird im deutschen Sprachraum auch als "Klammeraffe" bezeichnet) in der Mitte erkennbar. Provider, über die Sie Zugang zum Internet haben oder bei denen Sie Ihr Web-Angebot hosten, richten Ihnen normalerweise E-Mail-Adressen auf Wunsch ein.

Vor allem im Business-Bereich verdrängt E-Mail nach und nach die herkömmliche Briefpost (von E-Mail-Anhängern liebevoll oder verächtlich als "Schneckenpost" oder "snail mail" bezeichnet). Auch das Fax ist eine durch E-Mail gefährdete Gattung. Die Vorteile liegen auf der Hand:

  • E-Mails brauchen meist nur wenige Minuten vom Sender zum Empfänger, egal ob einige wenige oder mehrere tausend Kilometer zwischen ihnen liegen.
  • E-Mails sind preiswert. Im Vergleich zum Brief fallen für E-Mails nur Bruchteile von Cent-Beträgen an.
  • Gegenüber einem Telefonat bieten sie den Vorteil, dass Vereinbarungen oder dergleichen darin schriftlich festgehalten werden.
  • Moderne E-Mail-Programme können E-Mails in einer durchsuchbaren Datenbank speichern, sodass Sie vor längerer Zeit gesendete oder empfangene E-Mails leicht wiederfinden.
  • Der SeiteMIME-Standard, der sich bei E-Mails durchgesetzt hat, erlaubt das bequeme Anhängen beliebiger Computerdateien an eine E-Mail, sodass E-Mail auch für den individuellen Austausch von Dateien immer mehr Bedeutung gewinnt.
  • E-Mail zwingt Sender und Empfänger nicht, gleichzeitig online zu sein. Sie holen sich Ihre E-Mails ab, wenn Sie gerade Zeit haben.
  • Neben der Möglichkeit, mit bestimmten anderen Internet-Teilnehmern Nachrichten und Daten auszutauschen, können Sie mit einer eigenen E-Mail-Adresse auch an Mailing-Listen teilnehmen, die Sie interessieren.

Das heutige E-Mail-System hat aber auch noch mit einigen Problemen zu kämpfen. Eine normale E-Mail ist auf dem Weg vom Sender zum Empfänger etwa so geheim wie eine Ansichtskarte. Für vertrauliche Mitteilungen oder sensible Daten ist sie ungeeignet. Mittlerweile gibt es Verschlüsselungsverfahren wie PGP (Pretty Good Privacy), die das individuelle Kodieren und Dekodieren von E-Mails und angehängten Dateien erlauben. Voraussetzung ist dazu jedoch, dass sowohl Sender als auch Empfänger über eine entsprechende Zusatzsoftware verfügen und zuvor ihre öffentlichen Kodierschlüssel austauschen.

Ein weiterer Nachteil von E-Mails ist auch noch, dass sie nicht als "dokumentenecht" gelten. Zwar wächst allmählich ihre juristische Akzeptanz, doch unterschriftspflichtige Dokumente sind durch E-Mail bislang nicht ersetzbar. Deshalb können Sie z.B. noch nicht "einfach so" per E-Mail einen Wohnsitzwechsel mitteilen oder Ihre Steuererklärung ans Finanzamt schicken.

Allerdings existiert in Deutschland bereits die gesetzliche Grundlage für die "elektronische Signatur", mit der man elektronische Daten sehr fälschungssicher digital "unterschreiben" kann. Einziger Wermutstropfen: Der technische Aufwand mit speziellen Kartenlesegeräten für eine auch gerichtlich anerkannte digitale Signatur ist leider so hoch, dass deren Anschaffung derzeit nur lohnt, wenn man regelmäßig und mit Gegenstellen, die diese Signatur auch akzeptieren, kommuniziert.

 


Telnet und SSH

Telnet ist dazu gedacht, einen fernen Rechner im Internet durch die Kommandozeile (Eingabeaufforderung) so zu bedienen, als säße man direkt davor. Telnet ist damit eine einfache Lösung für Teleworker. Und diese Lösung ist schon wesentlich älter als der Begriff des "Teleworkings".

Telnet erlaubt das betriebssystemeigene Login (Anmelden) eines Benutzers an einem ans Internet angeschlossenen Host-Rechner. Das Anmelden ist nur möglich, wenn Sie Username und Passwort kennen, d.h. auf dem angewählten Host-Rechner als Benutzer eingetragen sind. Nach dem Einloggen erhalten Sie eine Shell (Eingabeaufforderung) und können auf dem entfernten Rechner Betriebssystembefehle eingeben, Programme starten usw.

PC-Anwender, die nicht direkt mit der Verwaltung von Server-Rechnern im Internet zu tun haben, werden mit Telnet kaum in Berührung kommen. Es gibt jedoch auch für PC-Benutzer von Systemen wie MS Windows oder Macintosh Telnet-Clients. Diese Programme erlauben es, vom eigenen PC aus auf einem entfernten Host-Rechner zu arbeiten. Ohne Kenntnis der Befehle des Host-Rechner-Betriebssystems ist ein solches Programm allerdings recht sinnlos.

SSH (Secure Shell) ist eine wesentlich bessere Variante von Telnet. Der Unterschied ist, dass bei SSH die gesamte Datenübertragung verschlüsselt wird. Das ist wichtig, weil schon beim Anmelden Benutzername und Passwort verschlüsselt übertragen werden - überdies werden beim Arbeiten auf einem entfernten Rechner häufig sensible Daten wie Konfigurationsdateien oder Passwörter bearbeitet. All diese Daten werden - auch wenn es einem beim Arbeiten kaum bewusst ist - über viele Rechner im Internet bis zum Zielrechner übertragen und könnten auf den Zwischenstationen abgefangen werden - verschlüsselt nützen sie dem Spion aber nichts. Manche moderneren Telnet-Clients bieten mittlerweile auch das SSH-Protokoll an.

 


File Transfer Protocol (FTP)

FTP ist ein Internet-Dienst, der speziell dazu dient, sich auf einem bestimmten Server-Rechner im Internet einzuloggen und von dort Dateien auf den eigenen Rechner zu übertragen (Download) oder eigene Dateien an den Server-Rechner zu übertragen (Upload). Ferner bietet das FTP-Protokoll Befehle an, um auf dem entfernten Rechner Operationen durchzuführen wie Verzeichnisinhalte anzeigen, Verzeichnisse wechseln, Verzeichnisse anlegen oder Dateien löschen.

Beim Einloggen in einen FTP-Server gilt es, zwei Arten zu unterscheiden: es gibt "normales" FTP und anonymes FTP.

Beim normalen FTP haben Sie nur Zugriff auf den Server, wenn Sie beim Einloggen einen Usernamen und ein Passwort angeben. Mit diesen Zugangsdaten muss der FTP-Serververwalter Sie am Server als berechtigten Anwender eingetragen haben.

Bei anonymem FTP handelt es sich um öffentlich zugängliche Bereiche auf Server-Rechnern. Dazu brauchen Sie keine Zugangsberechtigung. Wenn Ihre FTP-Software Sie dennoch nach Username und Passwort fragt, loggen Sie sich einfach mit dem Usernamen anonymous ein - als Passwort sollte jede beliebige Zeichenkombination funktionieren. Traditionell war es früher üblich, als Passwort die eigene E-Mail-Adresse einzugeben - da man aber nie genau weiß, ob diese Information nicht in falsche Hände gelangt, ist diese Angabe mittlerweile unüblich geworden.

Es gibt etliche öffentliche FTP-Server im Internet, die umfangreiche Dateibestände zum Download anbieten. Dort finden Sie Software, Hilfetexte, Grafiksammlungen usw.

Für öffentliche, anonyme FTP-Server gibt es Regeln. Da Sie beim Besuch solcher Server nur Gast sind, sollten Sie sich auch entsprechend verhalten. Bleiben Sie nicht länger als nötig. Laden Sie sich nicht unnötig viele Dateien herunter. Lesen Sie zuerst die Readme-Dateien, die es in fast jedem Verzeichnis gibt und die den Inhalt des Verzeichnisses erläutern.

Wenn Sie lediglich hin und wieder öffentlich zugängliche FTP-Server besuchen, um von dort Dateien herunterzuladen, können Sie das auch mit modernen WWW-Browsern wie Netscape oder dem Internet Explorer tun. Solche Browser zeigen die Dateilisten auf FTP-Servern als anklickbare Verweise an. Je nach Dateityp können Sie Dateien dann downloaden oder direkt im Browser-Fenster anzeigen.

Für anspruchsvollere Arbeiten, vor allem, wenn Sie die Dateien Ihres eigenen Web-Projekts verwalten wollen, brauchen Sie ein FTP-Programm. Solche Programme gibt es für alle Betriebssysteme, und einige Betriebssysteme, etwa alle Unix-Derivate oder OS/2, haben bereits einen eingebauten FTP-Client.

 


Gopher

Gopher gilt als der Vorläufer des World Wide Web, ist aber mittlerweile in der Bedeutungslosigkeit versunken. Nahezu alle Gopher-Server haben ihren Betrieb mittlerweile eingestellt, nur einige wenige werden aus historischen Gründen weiterbetrieben und vermutlich nur noch von Nostalgikern besucht. Der Name kommt von "go for" und drückt damit aus, was der wichtigste Zweck dieses Dienstes war: nämlich große Informationsbestände leichter durchsuchbar zu machen.

Gopher ist eine menübasierte Bedienoberfläche zum Auffinden von Information, aber auch zum Nutzen anderer Internet-Dienste wie FTP oder Telnet. Einem Eintrag in einem Gopher-Menü ist nicht anzusehen, wo sich die damit verbundenen Dateien oder Programme befinden. Anwender mit text- und tastaturorientierten Rechnern können aus den Menüs, die das Gophersystem am Bildschirm anzeigt, mit Buchstaben- oder Zifferntasten Einträge auswählen. Bei grafischen Benutzeroberflächen sind die Menüs mit der Maus anklickbar. In dieser Hinsicht gleicht Gopher dem World Wide Web, denn auch bei diesem Dienst müssen Sie keine Insider-Befehle kennen, um im Informationsbestand zu navigieren.

Der Nachteil von Gopher gegenüber dem WWW ist, dass es keine Standards wie HTML gibt. Es gibt lediglich die Gopher-Menüs und die damit verknüpften Dateiaufrufe oder Befehle. Ein guter Gopher-Client kann zwar diverse Dateiformate anzeigen, doch es gibt kein Mittel, um Bildschirmseiten zu gestalten und dadurch eigenständige Präsentationen von Information zu schaffen.

Moderne Web-Browser sind auch Gopher-fähig. Das bedeutet, dass Sie mit einem solchen Browser problemlos Gopher-Adressen aufrufen können. Die Gopher-Menüs erscheinen im Browser wie Listen mit Verweisen in HTML.

 


Internet Relay Chat (IRC)

Wer sich einsam fühlt oder einfach "in" sein will, geht im Internet chatten (tratschen, quatschen). Am Bildschirm erscheint dann ein zweigeteiltes Fenster. In den einen Teil werden wie von Geisterhand allerlei ganze und halbe Sätze, Kommentare und solche Dinge wie Emoticons hineingeschrieben. Das sind Beiträge von Teilnehmern, die gerade an der gleichen Stelle online sind. Im anderen Fenster können Sie selbst etwas eintippen. Auf diese Weise können Sie an der Unterhaltung teilnehmen. Es gibt auch grafische Oberflächen, bei denen sich jeder Chat-Teilnehmer eine Figur aussucht, die dann als Teilnehmer in einer Szenerie erscheint.

Kaum jemand erscheint dort mit seinem wahren Namen, und nicht wenige geben sich als etwas ganz anderes aus, als sie wirklich sind. Männer spielen Frau, um herauszufinden, wie es ist, als Frau von einem Mann angemacht zu werden. Erwachsene spielen Jugendliche, um sich mal wieder richtig pubertär benehmen zu dürfen. Hin und wieder kommen interessante Gespräche zustande, aber oft haben die Chat-Beiträge auch das Niveau von Kindergestammel. Über Chats entstehen aber auch ernstzunehmende Kontakte, Freundschaften und Beziehungen.

IRC ist einer der Internet-Dienste, die teuer werden können, wenn man seinen Internetzugang pro Zeit bezahlen muss. Denn während der ganzen Teilnahmedauer muss man online sein, und viele merken beim Quatschen nicht, wie die Zeit vergeht (das ist nicht anders als im "real life"). Es gibt nur wenige, die eine ganze Nacht lang im Web surfen, aber viele, die eine ganze Nacht lang chatten. Viele der hochgradig Internet-Süchtigen treiben sich vor allem in den Chat-Bereichen herum.

 


Newsgroups (News)

Eine Newsgroup ist einem schwarzen Brett vergleichbar, an das Sie Nachrichten heften (posten) können, die alle Besucher lesen können. Jede Newsgroup behandel Save t einen Themenbereich. Insgesamt sind mehrere zigtausend Newsgroups registriert. Es gibt praktisch nichts, zu dem es nicht eine Newsgroup gibt. Egal ob Sie sich für die Konfiguration Ihres PCs interessieren, für Origami oder für vermisste Kinder - für alles finden sich eine oder mehrere Newsgroups. Täglich werden zigtausend Nachrichten in Newsgroups gepostet. Es werden Fragen gestellt und Antworten gegeben, es wird debattiert und geflachst. Die Newsgroups gelten allgemein als der verrückteste Teil des Internet. Manchen Leuten sind sie aber auch ein Dorn im Auge, denn es gibt auch etliche Newsgroups mit pornographischen und extremistischen Inhalten.

Das System der Newsgroups ist auf verschiedene Netze verteilt. Das größte und bekannteste ist das Usenet. Hier finden Sie Newsgroups mit Adressen wie alt.music.pinkfloyd oder de.soc.weltanschauung. Die wichtigsten Abkürzungen in solchen Newsgroup-Adressen sind:

  • alt = alternativ (ohne regelnde obere Instanz) - inhaltlich oft bunt, verrückt, abgefahren
  • biz = Kommerzielles, jedoch keine Werbung
  • comp = Computer
  • de = deutschsprachig
  • misc = Sonstiges
  • news = Newsgroups zum Thema Newsgroups
  • rec = Freizeit, Hobby und Kunst
  • sci = Wissenschaften
  • soc = Soziales, Kultur, Politik
  • talk = Klatsch und Tratsch

Um Newsgroups lesen und daran teilnehmen zu können, brauchen Sie ein Newsreader-Programm. Web-Browser wie Netscape (ab V3.0) oder der Internet Explorer (ab V4.0) haben einen eingebauten News-Client, sodass Sie kein separates Programm mehr benötigen. Um Newsgroups empfangen zu können, müssen Sie in den Einstellungen des verwendeten Programms einen News-Server angeben. Fragen Sie den Provider, über den Sie Ihren Internet-Zugang haben, danach, ob er auch einen Newsgroup-Server anbietet, und mit welchen Daten Sie sich dort anmelden können!

Es empfiehlt sich, zunächst einmal alle verfügbaren Newsgroups einzulesen. Das kann eine Weile dauern, aber anschließend haben Sie eine sortierte Liste aller Gruppen und können sich einen Überblick verschaffen. Newsgroups, die Sie interessieren, können Sie abonnieren.

Nachrichten in Newsgroups sind hierarchisch organisiert. Irgendjemand postet eine Nachricht mit einem neuen Subject (Thema). Ein anderer antwortet auf die Nachricht und bezieht sich dadurch auf das gleiche Thema. Ein dritter antwortet ebenfalls, und ein vierter antwortet dem Dritten. Auf diese Weise entsteht eine Baumstruktur von Nachrichten zu einem einmal begonnenen Thema. Diese Baumstruktur wird auch als Thread bezeichnet. Sie können selbst einen neuen Thread beginnen oder auf eine Nachricht antworten und sich dadurch den betreffenden Thread einschalten.

 


 World Wide Web (WWW)

Das World Wide Web (WWW) ist der jüngste, aber auch bekannteste Dienst innerhalb des Internet. Das Web zeichnet sich dadurch aus, dass es auch ungeübteren Anwendern erlaubt, sich im Informationsangebot zu bewegen. Wer etwa mit einem FTP-Programm einen FTP-Server aufruft, muss sich in komplexen, unbekannten Verzeichnisstrukturen zurechtfinden und sich an Dateinamen orientieren. Interessante Dateien kann er auf seinen Rechner downloaden, um sie später zu öffnen. Im WWW dagegen erscheinen Informationen gleich beim Aufruf am Bildschirm. Wenn Sie mit einem Browser im Web unterwegs sind, brauchen Sie sich nicht um Dateinamen oder um komplizierte Eingabebefehle zu kümmern. Das bequeme Navigieren mit Hilfe einfacher Mausklicks kann ein Hochgefühl erzeugen, weshalb sich auch die Redewendung vom "Surfen im Netz" eingebürgert hat.

 


HTTP

Im Web werden die Daten in der Regel über das Hypertext Transfer Protocol (HTTP) zwischen dem Server und dem Browser übertragen. HTTP verwendet ein Frage-Antwort-Schema, das heißt, der Browser sendet eine Anfrage (Request) und bekommt eine Antwort (Response) vom Server. Der Server sendet aber nie von sich aus Antworten an den Client. Unter normalen Umständen werden alle Anfragen eines Clients beantwortet.