Welcher Dienst heißt World Wide Web? Was ist das World Wide Web?

Ursprünglich war das Internet ein Computernetzwerk zur Informationsübertragung, das auf Initiative des US-Verteidigungsministeriums entwickelt wurde. Als Grund wurde das erste von der Sowjetunion im Jahr 1957 eingeführte Modell angegeben künstlicher Satellit Erde. Das US-Militär entschied, dass es in diesem Fall ein äußerst zuverlässiges Kommunikationssystem benötigte. ARPANET war lange Zeit kein Geheimnis und wurde bald von verschiedenen Wissenschaftszweigen aktiv genutzt.

Die erste erfolgreiche Fernkommunikationssitzung wurde 1969 von Los Angeles nach Stanford durchgeführt. Im Jahr 1971 wurde ein sofort beliebtes Programm zum Versenden von E-Mails über das Internet entwickelt. Die ersten ausländischen Organisationen, die sich an das Netzwerk anschlossen, befanden sich im Vereinigten Königreich und in Norwegen. Mit der Installation des transatlantischen Telefonkabels zu diesen Ländern wurde ARPANET zu einem internationalen Netzwerk.

Das ARPANET war vielleicht ein fortschrittlicheres Kommunikationssystem, aber es war nicht das einzige. Und erst 1983, als das amerikanische Netzwerk mit den ersten Newsgroups und Bulletin Boards gefüllt war und auf die Verwendung des TCP/IP-Protokolls umgestellt wurde, das die Integration in andere Computernetzwerke ermöglichte, wurde ARPANET zum Internet. Buchstäblich ein Jahr später begann dieser Titel schrittweise auf NSFNet überzugehen – ein interuniversitäres Netzwerk, das über eine große Kapazität verfügte und in einem jährlichen Zeitraum 10.000 verbundene Computer ansammelte. Der erste Internet-Chat erschien 1988 und 1989 schlug Tim Berners-Lee das Konzept des World Wide Web vor.

Weltweites Netz

1990 verlor ARPANET schließlich gegen NSFNet. Es ist erwähnenswert, dass beide von denselben wissenschaftlichen Organisationen entwickelt wurden, nur das erste im Auftrag der US-Verteidigungsdienste und das zweite auf eigene Initiative. Diese Konkurrenzpaarung führte jedoch zu wissenschaftlichen Entwicklungen und Entdeckungen, die das World Wide Web Wirklichkeit werden ließen, das 1991 öffentlich zugänglich wurde. Berners Lee, der sein Konzept vorschlug, entwickelte in den nächsten zwei Jahren das HTTP-Protokoll (Hypertext). HTML-Sprache und URL-Identifikatoren, die normalen Benutzern eher als Internetadressen, Websites und Seiten bekannt sind.

Das World Wide Web ist ein System, das den Zugriff auf Dateien auf einem mit dem Internet verbundenen Servercomputer ermöglicht. Dies ist zum Teil der Grund dafür, dass sich die Konzepte Web und Internet heute oft gegenseitig ersetzen. Tatsächlich ist das Internet eine Kommunikationstechnologie, eine Art Informationsraum, und das World Wide Web füllt ihn. Dieses Spider-Netzwerk besteht aus vielen Millionen Webservern – Computern und deren Systemen, die für den Betrieb von Websites und Seiten verantwortlich sind. Für den Zugriff auf Webressourcen (Herunterladen, Anzeigen) von normaler Computer Browserprogramm verwendet wird. Web, WWW – Synonyme Weltweites Netz. Die Zahl der WWW-Nutzer geht in die Milliarden.

Das Internet ist heute fest in unserem Leben verankert. Aber nur wenige Menschen kennen den Namen Tim Berners Lee. Mittlerweile ist es genau die Person, die das Internet geschaffen hat – das World Wide Web, ohne das sich viele ihr Leben nicht einmal vorstellen können.

Die Biografie von Timothy ist recht einfach: Er wurde am 8. Juni 1955 geboren. Seine Heimat ist London. Tims Eltern waren die Mathematiker und Programmierer Conway Berners-Lee (Vater) und Mary Lee Woods (Mutter). Beide Eltern arbeiteten an derselben Universität (Manchester), um einen elektronischen Computer zu entwickeln RAM- „Manchester Mark I“.

Es versteht sich von selbst, dass der kleine Tim, der den Erwachsenen beim Spielen zusah, kleine Computermodelle aus leeren Kisten baute. Ja, und Tim zeichnete hauptsächlich mit Computer-Lochkarten – einer Art Pappe mit Löchern, den ersten Speichermedien.

Jahre des Studiums

Tim Berners studierte an der renommierten Emanuel School, wo seine Leidenschaft für Design und Mathematik und sein Studienerfolg alle überraschten. Seine Biografie enthält folgenden Eintrag: „Schuljahre – 1969-1973“

Nach seinem Schulabschluss im Jahr 1973 und dem Eintritt in das King's College der Universität Oxford beschloss Tim Berners jedoch, Physiker zu werden.

Und hier erwachte Tim Berners-Lees Kindheitssehnsucht nach Computern erneut – in der Biografie des zukünftigen Internet-Pioniers taucht er auf interessante Tatsache. Nehmen Sie den Motorola M6800-Prozessor und normales Fernsehen Tim gelang es, daraus seinen ersten Computer zu löten.

Wie die Biografie eines jeden schelmischen Jungen enthält auch die Biografie von Timothy John Berners-Lee faszinierende Seiten, die die Persönlichkeit von einer nicht ganz attraktiven Seite offenbaren. Eigentlich war es leichtsinnig, den jungen Mann für das Hacken der Computerdatenbank der Universität zu verurteilen – das war nur eine Tatsache aus Neugier und einer Prüfung seiner Kräfte. Doch daraufhin erhielt Tim vom Rektor eine strenge Verwarnung und ein Computerverbot an der Universität.

Arbeit


Im Jahr 1976 schloss Timothy Berners-Lee sein Studium an der Universität Oxford mit Auszeichnung ab und erhielt einen Bachelor-Abschluss in Physik. Nach seinem Umzug nach Dorset bekommt der zukünftige Schöpfer des Internets einen Job bei der Plessey Corporation. Hier programmiert Tim Berners Systeme zur Informationsübertragung, Transaktionsverteilung und erstellt Barcode-Technologie.

1978 wechselte Timothy John Berners-Lee den Arbeitsplatz. Bei D.G Nash Ltd ändern sich auch seine Aufgaben: Tim Berners erstellt jetzt Programme für Drucker und Multitasking-Systeme.

Tim Berners-Lee wurde 1980 in die Schweiz eingeladen, wo der zukünftige Schöpfer des Internets als Berater bei der Europäischen Organisation für Kernforschung arbeitet. Software. In der Schweiz beginnt Tim Berners nach getaner Arbeit mit der Arbeit am Inquire-Programm – der Grundlage des World Wide Web.

Im Jahr 1981 wechselte Tim Berners-Lee zu Image Computer Systems Ltd, wo er erfolgreich an Grafik- und Kommunikationssoftware sowie Echtzeitsystemarchitektur arbeitete. Später, im Jahr 1984, begann der zukünftige Schöpfer des Internets mit der Entwicklung eines Echtzeitsystems zur Sammlung wissenschaftlicher Informationen. Gleichzeitig entwickelt Tim Berners-Lee Anwendungen Computertechnologie, beschleunigende Teilchen sowie andere wissenschaftliche Geräte.

Auf die Frage, in welchem ​​Jahr das World Wide Web entstand, kann die Antwort 1989 lauten. Damals schlug Tim Berners-Lee seinem Management die Idee des World Wide Web vor, die auf dem Inquire-Konzept basierte. Dies war der Beginn der Erfindung des Internets. Den Namen „World Wide Web“ erfand er selbst, basierend auf der Verknüpfung verschiedener Hypertext-Webseiten mithilfe von Hyperlinks und einem Datenübertragungsprotokoll. Zuvor wurden diese Protokolle im ARPANET-Netzwerk des US-Militärs verwendet. Dies sowie das Universitätsnetzwerkprotokoll NSFNET wurden zu den Vorläufern des World Wide Web, dank dessen das Internet entstand.

Und nun die Rede des Erfinders des Internets im Video (auf Englisch, aber mit Untertiteln):

Geburt des World Wide Web


Im wunderbaren Jahr 1989 erhielt das Protokoll ein neues Betätigungsfeld: Es wurde für den E-Mail-Austausch und die Echtzeitkommunikation, für kommerzielle Zwecke und zum Lesen von Newsgroups eingesetzt. Die von Tim Berners-Lee vorgeschlagene Idee wurde von Regisseur Mike Sandell angenommen. Für seine Arbeit erhielt Tim Berners jedoch keine großen Gelder, sondern lediglich das Angebot, Experimente auf einem der NeXT-Personalcomputer durchzuführen.

Trotz der Schwierigkeiten meistert Tim Berners die gestellte Aufgabe erfolgreich: Er entwickelt den ersten Webserver und den ersten Webbrowser. Der WorldWideWeb-Seiteneditor, eine standardisierte Methode zum Schreiben von Website-Adressen im Internet, die HTML-Sprache und das Datenübertragungsprotokoll der Anwendungsschicht verdanken ihr Erscheinen seinem Talent als Entwickler.

Im folgenden Jahr erhielt Tim Berners-Lee einen Assistenten – den Belgier Robert Caillot. Dank ihm erhielt das Internetprojekt eine Finanzierung. Auch alle organisatorischen Belange übernahm Robert selbst. Trotz seiner aktiven Beteiligung an der Entwicklung und Förderung des Projekts ging der Hauptschöpfer des Internets, Tim Berners-Lee, dessen Name von allen Programmierern der Welt verehrt wird, in die Geschichte ein. Robert Caillot behielt sich nicht das Recht vor, Gebühren für die Nutzung der Erfindung zu erheben, und geriet zu Unrecht in Vergessenheit.

Später, im Jahr 1993, erstellte Tim Berners-Lee mehrere Browser für verschiedene Zwecke Betriebssystem, was den Anteil des World Wide Web (WWW) am gesamten Internetverkehr erhöhte.

Eine interessante Tatsache ist, dass die University of Minnesota zuvor das Gopher-Protokoll entwickelt hat, das durchaus eine Alternative zum modernen Internet werden könnte. Tim Berners-Lee bestreitet diese Tatsache jedoch und vertritt die Meinung, dass dieses Protokoll der Konkurrenz mit dem World Wide Web (WWW) nicht standgehalten hätte, da die Macher dieses Projekts eine Gebühr für seine Implementierung verlangten.

Weltweites Netz

Das World Wide Web ist ein verteiltes System, das Zugriff auf miteinander verbundene Dokumente ermöglicht, die sich auf verschiedenen Computern befinden, die mit dem Internet verbunden sind. Das Wort „Web“ (übersetzt aus dem Englischen bedeutet „Web“ „Web“) und die Abkürzung WWW werden auch für das World Wide Web verwendet. Das World Wide Web besteht aus Hunderten Millionen Webservern. Die meisten Ressourcen im World Wide Web basieren auf Hypertext-Technologie. Im World Wide Web veröffentlichte Hypertextdokumente werden als Webseiten bezeichnet. Mehrere Webseiten, die ein gemeinsames Thema, Design und Links haben und sich normalerweise auf demselben Webserver befinden, werden als Website bezeichnet. Zum Herunterladen und Anzeigen von Webseiten werden spezielle Programme verwendet – Browser. Das World Wide Web hat eine echte Revolution in der Informationstechnologie und eine explosionsartige Entwicklung des Internets ausgelöst. Wenn man vom Internet spricht, meint man oft das World Wide Web, aber es ist wichtig zu verstehen, dass es sich dabei nicht um dasselbe handelt.

Geschichte des World Wide Web

Tim Berners-Lee und in geringerem Maße auch Robert Cayo gelten als Erfinder des World Wide Web. Tim Berners-Lee ist der Begründer der HTTP-, URI/URL- und HTML-Technologien. 1980 arbeitete er für den Europäischen Rat für Kernforschung als Softwareberater. Dort, in Genf (Schweiz), schrieb er für seine eigenen Bedürfnisse das Programm Enquirer, das zufällige Assoziationen zur Speicherung von Daten nutzte und die konzeptionelle Grundlage für das World Wide Web legte. Während Tim Berners-Lee 1989 am CERN am Intranet der Organisation arbeitete, schlug er das globale Hypertext-Projekt vor, das heute als World Wide Web bekannt ist.

Das Projekt umfasste die Veröffentlichung von durch Hyperlinks verknüpften Hypertextdokumenten, die den CERN-Wissenschaftlern die Suche und Konsolidierung von Informationen erleichtern würden. Um das Projekt umzusetzen, erfand Tim Berners-Lee URIs, das HTTP-Protokoll und die HTML-Sprache. Das sind Technologien, die aus dem modernen Internet nicht mehr wegzudenken sind. Zwischen 1991 und 1993 verbesserte sich Berners-Lee, technische Spezifikationen diese Standards und veröffentlichte sie. Dennoch sollte 1989 als offizielles Geburtsjahr des World Wide Web gelten. Im Rahmen des Projekts schrieb Berners-Lee den weltweit ersten Webserver, httpd, und den weltweit ersten Hypertext-Webbrowser namens WorldWideWeb. Dieser Browser war auch ein WYSIWYG-Editor; seine Entwicklung begann im Oktober 1990 und wurde im Dezember desselben Jahres abgeschlossen.

Struktur und Prinzipien des World Wide Web

World Wide Web rund um Wikipedia

Das World Wide Web besteht aus Millionen von Internet-Webservern, die auf der ganzen Welt verteilt sind. Ein Webserver ist ein Programm, das auf einem mit einem Netzwerk verbundenen Computer ausgeführt wird und das HTTP-Protokoll zur Datenübertragung verwendet. In seiner einfachsten Form empfängt ein solches Programm über das Netzwerk eine HTTP-Anfrage für eine bestimmte Ressource, findet die entsprechende Datei auf der lokalen Festplatte und sendet sie über das Netzwerk an den anfragenden Computer. Komplexere Webserver sind in der Lage, Ressourcen als Reaktion auf eine HTTP-Anfrage dynamisch zuzuweisen. Um Ressourcen (häufig Dateien oder Teile davon) im World Wide Web zu identifizieren, werden Uniform Resource Identifier (URIs) verwendet. Einheitlicher Ressourcenbezeichner). Einheitliche URL-Ressourcen-Locators werden zum Auffinden von Ressourcen im Web verwendet. Einheitlicher Ressourcenfinder). Diese URL-Locators kombinieren URI-Identifikationstechnologie und das DNS-Domänennamensystem. Domain-Name-System) - Domainname(oder direkt die Adresse in numerischer Schreibweise) ist Teil der URL, um den Computer (genauer gesagt eine seiner Netzwerkschnittstellen) zu bezeichnen, der den Code des gewünschten Webservers ausführt.

Um die vom Webserver empfangenen Informationen zu überprüfen, gehen Sie zu Client-Computer gilt Sonderprogramm- Webbrowser. Die Hauptfunktion eines Webbrowsers besteht darin, Hypertext anzuzeigen. Das World Wide Web ist untrennbar mit den Konzepten Hypertext und Hyperlinks verbunden. Die meisten Informationen im Internet sind Hypertext. Um die Erstellung, Speicherung und Anzeige von Hypertext im World Wide Web zu erleichtern, wird traditionell HTML verwendet. HyperText-Auszeichnungssprache), Hypertext-Auszeichnungssprache. Die Arbeit des Markierens von Hypertext wird als Layout bezeichnet; der Markup-Master wird als Webmaster oder Webmaster (ohne Bindestrich) bezeichnet. Nach dem HTML-Markup wird der resultierende Hypertext in einer Datei abgelegt; eine solche HTML-Datei ist die Hauptressource des World Wide Web. Sobald eine HTML-Datei einem Webserver zur Verfügung gestellt wird, wird sie als „Webseite“ bezeichnet. Eine Website besteht aus einer Sammlung von Webseiten. Hyperlinks werden dem Hypertext von Webseiten hinzugefügt. Mithilfe von Hyperlinks können World Wide Web-Benutzer problemlos zwischen Ressourcen (Dateien) navigieren, unabhängig davon, ob sich die Ressourcen darauf befinden lokalen Computer oder bei Remote-Server. Web-Hyperlinks basieren auf der URL-Technologie.

World Wide Web-Technologien

Um die visuelle Wahrnehmung des Webs zu verbessern, ist die CSS-Technologie weit verbreitet, mit der Sie für viele Webseiten einheitliche Designstile festlegen können. Eine weitere Innovation, die es wert ist, beachtet zu werden, ist das URN-Ressourcenbezeichnungssystem. Einheitlicher Ressourcenname).

Ein beliebtes Konzept für die Entwicklung des World Wide Web ist die Schaffung des Semantic Web. Das Semantic Web ist eine Ergänzung zum bestehenden World Wide Web, das darauf ausgelegt ist, im Netzwerk veröffentlichte Informationen für Computer verständlicher zu machen. Das Semantic Web ist ein Konzept eines Netzwerks, in dem jede Ressource in menschlicher Sprache mit einer Beschreibung versehen wird, die ein Computer verstehen kann. Das Semantic Web eröffnet den Zugang zu klar strukturierten Informationen für jede Anwendung, unabhängig von der Plattform und unabhängig von Programmiersprachen. Programme werden in der Lage sein, die notwendigen Ressourcen selbst zu finden, Informationen zu verarbeiten, Daten zu klassifizieren, logische Zusammenhänge zu erkennen, Schlussfolgerungen zu ziehen und auf der Grundlage dieser Schlussfolgerungen sogar Entscheidungen zu treffen. Wenn das Semantic Web umfassend angenommen und sinnvoll umgesetzt wird, hat es das Potenzial, eine Revolution im Internet auszulösen. Zum Gestalten Computer verständlich Für Ressourcenbeschreibungen verwendet das Semantic Web das RDF-Format (Englisch). Ressourcenbeschreibungsrahmen ), das auf XML-Syntax basiert und URIs zur Identifizierung von Ressourcen verwendet. Neu in diesem Bereich ist RDFS (Englisch) Russisch (Englisch) RDF-Schema) und SPARQL (eng. Protokoll und RDF-Abfragesprache ) (ausgesprochen „funkeln“) neue Sprache Anfragen für Schneller Zugang zu RDF-Daten.

Geschichte des World Wide Web

Tim Berners-Lee und in geringerem Maße Robert Cayo gelten als Erfinder des World Wide Web. Tim Berners-Lee ist der Begründer der HTTP-, URI/URL- und HTML-Technologien. 1980 arbeitete er beim Europäischen Rat für Kernforschung (Französisch). Europäischer Rat für die Nuklearforschung, CERN ) Softwareberater. Dort, in Genf (Schweiz), schrieb er das Inquire-Programm für seine eigenen Bedürfnisse. Anfragen, kann frei mit „Interrogator“ übersetzt werden), das zufällige Assoziationen zum Speichern von Daten nutzte und den konzeptionellen Grundstein für das World Wide Web legte.

Die weltweit erste Website wurde am 6. August 1991 von Berners-Lee auf dem ersten Webserver unter http://info.cern.ch/ () gehostet. Die Ressource hat das Konzept definiert Weltweites Netz, enthielt Anweisungen zum Einrichten eines Webservers, zur Verwendung eines Browsers usw. Diese Site war auch das erste Internetverzeichnis der Welt, da Tim Berners-Lee dort später eine Liste mit Links zu anderen Sites veröffentlichte und pflegte.

Das erste Foto im World Wide Web zeigte die Parodie-Filk-Band Les Horribles Cernettes. Tim Bernes-Lee bat den Gruppenleiter nach dem CERN Hardronic Festival um Scans davon.

Und doch wurden die theoretischen Grundlagen des Internets viel früher gelegt als Berners-Lee. Bereits 1945 entwickelte Vannaver Bush das Konzept von Memex. (Englisch) Russisch - mechanische Hilfsmittel zur „Erweiterung des menschlichen Gedächtnisses“. Memex ist ein Gerät, in dem ein Mensch alle seine Bücher und Aufzeichnungen (und im Idealfall sein gesamtes formal beschreibbares Wissen) speichert und das die notwendigen Informationen mit ausreichender Geschwindigkeit und Flexibilität bereitstellt. Es ist eine Erweiterung und Ergänzung des menschlichen Gedächtnisses. Bush sagte auch eine umfassende Indexierung von Text- und Multimedia-Ressourcen voraus schnelle Suche notwendige Informationen. Der nächste bedeutende Schritt in Richtung World Wide Web war die Schaffung von Hypertext (ein Begriff, der 1965 von Ted Nelson geprägt wurde).

  • Beim Semantic Web geht es darum, die Kohärenz und Relevanz von Informationen im World Wide Web durch die Einführung neuer Metadatenformate zu verbessern.
  • Das Social Web beruht auf der Organisation der im Web verfügbaren Informationen, die von den Webbenutzern selbst durchgeführt wird. In der zweiten Richtung werden Entwicklungen, die Teil des Semantic Web sind, aktiv als Werkzeuge genutzt (RSS und andere Webkanalformate, OPML, XHTML-Mikroformate). Teilweise semantisierte Abschnitte des Wikipedia-Kategoriebaums helfen Benutzern, sich bewusst im Informationsraum zurechtzufinden. Sehr weiche Anforderungen an Unterkategorien geben jedoch keinen Anlass zur Hoffnung auf die Erweiterung solcher Abschnitte. In diesem Zusammenhang könnten Versuche zur Erstellung von Wissensatlanten von Interesse sein.

Es gibt auch ein beliebtes Konzept Web 2.0, das mehrere Entwicklungsrichtungen des World Wide Web zusammenfasst.

Methoden zur aktiven Anzeige von Informationen im World Wide Web

Informationen im Web können entweder passiv (d. h. der Benutzer kann sie nur lesen) oder aktiv angezeigt werden – dann kann der Benutzer Informationen hinzufügen und bearbeiten. Zu den Methoden zur aktiven Anzeige von Informationen im World Wide Web gehören:

Es ist zu beachten, dass diese Aufteilung sehr willkürlich ist. Also, sagen wir mal ein Blog oder Gästebuch kann gesehen werden als besonderer Fall Forum, das wiederum ein Sonderfall eines Content-Management-Systems ist. Normalerweise manifestiert sich der Unterschied im Zweck, in der Herangehensweise und in der Positionierung eines bestimmten Produkts.

Auf einige Informationen von Websites kann auch per Sprache zugegriffen werden. Indien hat bereits damit begonnen, ein System zu testen, das den Textinhalt von Seiten auch für Menschen zugänglich macht, die nicht lesen und schreiben können.

Das World Wide Web wird manchmal ironischerweise „Wild Wild Web“ genannt, in Anlehnung an den Titel des Films „Wild Wild West“.

siehe auch

Anmerkungen

Literatur

  • Fielding, R.; Gettys, J.; Mogul, J.; Fristik, G.; Mazinter, L.; Leach, P.; Berners-Lee, T. (Juni 1999). „Hypertext Transfer Protocol – http://1.1“ (Institut für Informationswissenschaften).
  • Berners-Lee, Tim; Bray, Tim; Connolly, Dan; Baumwolle, Paul; Fielding, Roy; Jeckle, Mario; Lilly, Chris; Mendelsohn, Noah; Orcard, David; Walsh, Norman; Williams, Stuart (15. Dezember 2004). „Architektur des World Wide Web, Band Eins“ (W3C).
  • Polo, Luciano World Wide Web-Technologiearchitektur: Eine konzeptionelle Analyse. Neue Geräte(2003). Archiviert vom Original am 24. August 2011. Abgerufen am 31. Juli 2005.

Links

  • Offizielle Website des World Wide Web Consortium (W3C) (Englisch)
  • Tim Berners-Lee, Mark Fischetti. Das Web weben: Das ursprüngliche Design und das ultimative Schicksal des World Wide Web. - New York: HarperCollins Publishers (Englisch) Russisch . - 256 S. - ISBN 0-06-251587-X, ISBN 978-0-06-251587-2(Englisch)
Andere Organisationen, die an der Entwicklung des World Wide Web und des Internets im Allgemeinen beteiligt sind

Das Internet ist ein Kommunikationssystem und zugleich ein Informationssystem – ein Medium zur Kommunikation der Menschen. Derzeit gibt es viele Definitionen dieses Konzepts. Unserer Meinung nach lautet eine der Definitionen des Internets, die die Informationsinteraktion der Weltbevölkerung am besten charakterisiert: „Das Internet ist ein komplexes Transport- und Informationssystem aus pilzförmigen (Dipol-)Strukturen, deren Kappe jeweils ( die Dipole selbst) stellen das Gehirn einer Person dar, die an einem Computer sitzt, zusammen mit dem Computer selbst, der sozusagen eine künstliche Erweiterung des Gehirns darstellt, und die Beine beispielsweise sind das Telefonnetz, das Computer verbindet, oder der Äther, durch den Radiowellen übertragen werden.“

Das Aufkommen des Internets gab der Entwicklung neuer Impulse Informationstechnologien, was nicht nur zu Veränderungen im Bewusstsein der Menschen, sondern auch der Welt als Ganzes führt. Allerdings war das weltweite Computernetzwerk nicht die erste Entdeckung dieser Art. Heute entwickelt sich das Internet genauso wie seine Vorgänger – Telegraf, Telefon und Radio. Im Gegensatz zu ihnen vereinte es jedoch ihre Vorteile – es wurde nicht nur für die Kommunikation zwischen Menschen nützlich, sondern auch zu einem öffentlich zugänglichen Mittel zum Empfangen und Austauschen von Informationen. Hinzu kommt, dass die Möglichkeiten nicht nur des stationären, sondern auch des mobilen Fernsehens im Internet bereits voll ausgeschöpft werden.

Die Geschichte des Internets beginnt etwa in den 60er Jahren des 20. Jahrhunderts.

Die erste Dokumentation der durch das Internet ermöglichten sozialen Interaktion war eine Reihe von Notizen von J. Licklider. In diesen Notizen wurde das Konzept des „Galaktischen Netzwerks“ erörtert. Der Autor stellte sich die Schaffung eines globalen Netzwerks miteinander verbundener Computer vor, über das jeder schnell auf Daten und Programme zugreifen könnte, die sich auf jedem Computer befinden. Im Geiste kommt dieses Konzept dem aktuellen Stand des Internets sehr nahe.

Leonard Kleinrock veröffentlichte im Juli 1961 den ersten Artikel zur Paketvermittlungstheorie. In dem Artikel stellte er die Vorteile seiner Theorie gegenüber dem bestehenden Prinzip der Datenübertragung – der Leitungsvermittlung – dar. Was ist der Unterschied zwischen diesen Konzepten? Bei der Paketvermittlung besteht keine physische Verbindung zwischen zwei Endgeräten (Computern). In diesem Fall werden die für die Übermittlung notwendigen Daten in Teile aufgeteilt. An jeden Teil wird eine Kopfzeile angehängt, die Folgendes enthält: volle Informationüber die Lieferung des Pakets an seinen Bestimmungsort. Beim Kanalwechsel werden zwei Computer während der Informationsübertragung physisch „jeder mit jedem“ verbunden. Während der Verbindungszeit wird die gesamte Informationsmenge übertragen. Diese Verbindung bleibt bis zum Ende der Informationsübertragung bestehen, also genauso wie bei der Übertragung von Informationen über analoge Systeme, die eine Verbindungsvermittlung ermöglichen. Gleichzeitig ist die Auslastung des Informationskanals minimal.

Um das Konzept der Paketschaltungsvermittlung zu testen, verbanden Lawrence Roberts und Thomas Merrill 1965 einen TX-2-Computer in Massachusetts über langsame Telefoneinwahlleitungen mit einem Q-32-Computer in Kalifornien. So entstand das erste (wenn auch kleine) nicht-lokale Computernetzwerk überhaupt. Das Ergebnis des Experiments war die Erkenntnis, dass Time-Sharing-Computer erfolgreich zusammenarbeiten, Programme ausführen und Daten auf einem Remote-Computer abrufen können. Das wurde auch deutlich Telefonsystem mit Leitungsvermittlung (Verbindungen) ist für den Aufbau eines Computernetzwerks absolut ungeeignet.

Im Jahr 1969 begann die amerikanische Agentur ARPA (Advanced Research Projects Agency) mit der Forschung zum Aufbau eines experimentellen Paketvermittlungsnetzwerks. Dieses Netzwerk wurde erstellt und ARPANET genannt, d. h. Netzwerk der Agentur für fortgeschrittene Forschungsprojekte. Eine Skizze des ARANET-Netzwerks, bestehend aus vier Knoten – dem Embryo des Internets – ist in Abb. dargestellt. 6.1.

In diesem frühen Stadium wurden Forschungen sowohl zur Netzwerkinfrastruktur als auch zu Netzwerkanwendungen durchgeführt. Gleichzeitig wurde daran gearbeitet, ein funktional vollständiges Protokoll für die Computer-zu-Computer-Interaktion und andere Netzwerksoftware zu erstellen.

Im Dezember 1970 schloss die Network Working Group (NWG) unter der Leitung von S. Crocker die Arbeit an der ersten Version des Protokolls mit dem Namen Network Control Protocol (NCP) ab. Nachdem die Arbeiten zur Implementierung von NCP auf ARPANET-Knoten in den Jahren 1971–1972 abgeschlossen waren, konnten Netzwerkbenutzer endlich mit der Entwicklung von Anwendungen beginnen.

1972 erschien die erste Anwendung - E-Mail.

Im März 1972 schrieb Ray Tomlinson grundlegende Programme zum Senden und Lesen elektronischer Nachrichten. Im Juli desselben Jahres fügte Roberts diesen Programmen die Möglichkeit hinzu, eine Liste von Nachrichten anzuzeigen, selektiv zu lesen, in einer Datei zu speichern, weiterzuleiten und eine Antwort vorzubereiten.

Seitdem ist E-Mail der größte Anbieter geworden Netzwerkanwendung. Für seine Zeit wurde E-Mail zu dem, was das World Wide Web heute ist – ein äußerst starker Katalysator für das Wachstum des Austauschs aller Arten zwischenmenschlicher Datenströme.

Im Jahr 1974 führte die Internet Network Working Group (INWG) ein universelles Protokoll für die Datenübertragung und Netzwerkverbindung ein – TCP/IP. Dies ist das Protokoll, das im modernen Internet verwendet wird.

Allerdings wurde das ARPANET erst am 1. Januar 1983 von NCP auf TCP/IP umgestellt. Dies war ein Übergang im Stil von Day X, der gleichzeitige Änderungen an allen Computern erforderte. Der Übergang war in den vergangenen Jahren von allen Beteiligten sorgfältig geplant worden und verlief überraschend reibungslos (er führte jedoch zur Verbreitung des Abzeichens „Ich habe die TCP/IP-Migration überlebt“). Im Jahr 1983 ermöglichte der Übergang des ARPANET von NCP zu TCP/IP die Aufteilung des Netzwerks in MILNET, das militärische Netzwerk selbst, und ARPANET, das für Forschungszwecke genutzt wurde.

Im selben Jahr ereignete sich ein weiteres wichtiges Ereignis. Paul Mockapetris entwickelte das Domain Name System (DNS). Dieses System ermöglichte die Schaffung eines skalierbaren, verteilten Mechanismus zur Zuordnung hierarchischer Computernamen (z. B. www.acm.org) zu Internetadressen.

Ebenfalls 1983 wurde an der University of Wisconsin ein Domain Name Server (DNS) eingerichtet. Dieser Server (DNS) sorgt automatisch und im Geheimen für den Benutzer für die Übersetzung des Wörterbuchäquivalents der Website in eine IP-Adresse.

Mit der allgemeinen Verbreitung des Internets außerhalb der Vereinigten Staaten erschienen die nationalen First-Level-Domains ru, uk, ua usw.

1985 beteiligte sich die National Science Foundation (NSF) am Aufbau ihres eigenen Netzwerks NSFNet, das bald mit dem Internet verbunden wurde. Ursprünglich umfasste die NSF 5 Supercomputerzentren, jedoch weniger als im APRANET, und die Datenübertragungsgeschwindigkeit in Kommunikationskanälen überschritt 56 kbit/s nicht. Gleichzeitig war die Schaffung von NSFNet ein wesentlicher Beitrag zur Entwicklung des Internets, da sie einen neuen Blick auf die Nutzung des Internets ermöglichte. Die Stiftung setzte sich das Ziel, dass jeder Wissenschaftler, jeder Ingenieur in den Vereinigten Staaten mit einem einzigen Netzwerk „verbunden“ werden sollte, und begann daher mit der Schaffung eines Netzwerks mit schnelleren Kanälen, das zahlreiche regionale und lokale Netzwerke vereinen würde.

Basierend auf der ARPANET-Technologie wurde 1986 das NSFNET-Netzwerk (das National Science Foundation NETwork) gegründet, an dessen Gründung die NASA und das Energieministerium direkt beteiligt waren. Sechs große Forschungszentren, die mit den neuesten Supercomputern ausgestattet sind und sich in verschiedenen Regionen der Vereinigten Staaten befinden, wurden verbunden. Der Hauptzweck dieses Netzwerks bestand darin, US-amerikanischen Forschungszentren den Zugang zu Supercomputern auf der Grundlage eines interregionalen Backbone-Netzwerks zu ermöglichen. Das Netzwerk arbeitete mit einer Basisgeschwindigkeit von 56 Kbit/s. Beim Aufbau des Netzwerks wurde deutlich, dass es sich nicht einmal lohnt, alle Universitäten und Forschungseinrichtungen direkt an die Zentren anzuschließen, da die Verlegung einer solchen Menge an Kabeln nicht nur sehr teuer, sondern praktisch unmöglich ist. Deshalb haben wir uns entschieden, Netzwerke auf regionaler Basis zu schaffen. In jedem Teil des Landes knüpften die betreffenden Institutionen Kontakte zu ihren nächsten Nachbarn. Die resultierenden Ketten wurden über einen ihrer Knoten mit den Supercomputerzentren verbunden, sodass die Supercomputerzentren miteinander verbunden waren. Mit diesem Design könnte jeder Computer mit jedem anderen kommunizieren, indem er Nachrichten über seine Nachbarn weiterleitet.

Eines der damals bestehenden Probleme bestand darin, dass frühe Netzwerke (einschließlich des ARPANET) bewusst aufgebaut wurden, um einem kleinen Kreis interessierter Organisationen zu helfen. Sie sollten von einer geschlossenen Gemeinschaft von Spezialisten genutzt werden; In der Regel beschränkte sich die Arbeit von Netzwerken darauf. Es bestand kein besonderer Bedarf an Netzwerkkompatibilität; dementsprechend bestand auch keine Kompatibilität an sich. Gleichzeitig tauchten im kommerziellen Bereich alternative Technologien auf, beispielsweise XNS von Xerox, DECNet und SNA von IBM. Daher wurden unter der Federführung von DARPA NSFNET gemeinsam mit Spezialisten der nachgeordneten Themengruppen zu Technologie und Internetarchitektur (Internet Engineering and Architecture Task Forces) und Mitgliedern der NSF Network Technical Advisory Group „Anforderungen an Internet-Gateways“ entwickelt. Diese Anforderungen garantierten offiziell die Interoperabilität zwischen Teilen des Internets, die von DARPA und NSF verwaltet werden. Neben der Wahl von TCP/IP als Grundlage für NSFNet haben US-Bundesbehörden eine Reihe zusätzlicher Prinzipien und Regeln übernommen und umgesetzt, die das moderne Gesicht des Internets prägten. Am wichtigsten war, dass NSFNET eine Politik des „universellen und gleichberechtigten Zugangs zum Internet“ verfolgte. Damit eine amerikanische Universität NSF-Mittel für eine Internetverbindung erhalten kann, muss sie, wie es im NSFNet-Programm heißt, „diese Verbindung allen qualifizierten Benutzern auf dem Campus zur Verfügung stellen“.

NSFNET funktionierte zunächst recht erfolgreich. Doch es kam die Zeit, in der sie den gestiegenen Bedürfnissen nicht mehr gewachsen war. Das für die Nutzung von Supercomputern geschaffene Netzwerk ermöglichte es verbundenen Organisationen, viele Informationsdaten zu nutzen, die nichts mit Supercomputern zu tun hatten. Netzwerknutzer in Forschungszentren, Universitäten, Schulen usw. erkannten, dass sie nun Zugriff auf eine Fülle von Informationen hatten und direkten Zugang zu ihren Kollegen hatten. Der Nachrichtenfluss im Internet wuchs immer schneller, bis er schließlich die Computer überlastete, die das Netzwerk und die sie verbindenden Telefonleitungen steuerten.

1987 wechselte NSF zu Merit Network Inc. ein Vertrag, nach dem Merit unter Beteiligung von IBM und MCI die Verwaltung des NSFNET-Kernnetzes übernehmen, auf T-1-Kanäle mit höherer Geschwindigkeit umstellen und dessen Entwicklung fortsetzen sollte. Das wachsende Kernnetzwerk vereinte bereits mehr als 10 Knoten.

Im Jahr 1990 verließen die Konzepte ARPANET, NFSNET, MILNET usw. endgültig die Bildfläche und machten dem Konzept des Internets Platz.

Die Größe des NSFNET-Netzwerks in Kombination mit der Qualität der Protokolle führte dazu, dass bis 1990, als das ARPANET endgültig abgebaut wurde, die TCP/IP-Familie die meisten anderen globalen Protokolle weltweit verdrängt oder erheblich ersetzt hatte. Computernetzwerke, und IP wurde selbstbewusst zum dominierenden Datentransportdienst in der globalen Informationsinfrastruktur.

Im Jahr 1990 richtete die Europäische Organisation für Kernforschung die größte Internetseite Europas ein und ermöglichte den Internetzugang zur Alten Welt. Um das Konzept des verteilten Rechnens über das Internet zu fördern und zu erleichtern, entwickelte Tim Berners-Lee am CERN (Schweiz, Genf) eine Hypertext-Dokumententechnologie – das World Wide Web (WWW), die es Benutzern ermöglicht, auf Computern auf alle im Internet befindlichen Informationen zuzugreifen auf der ganzen Welt.

Die WWW-Technologie basiert auf der Definition von URL-Spezifikationen (Universal Resource Locator), HTTP (HyperText Transfer Protocol) und der HTML-Sprache selbst (HyperText Markup Language). Text kann mit beliebigen HTML-Markierungen versehen werden Texteditor. Eine in HTML markierte Seite wird oft als Webseite bezeichnet. Zum Anzeigen einer Webseite wird eine Clientanwendung – ein Webbrowser – verwendet.

1994 wurde das W3-Konsortium gegründet, das Wissenschaftler verschiedener Universitäten und Unternehmen (darunter Netscape und Microsoft) zusammenbrachte. Seitdem beschäftigt sich das Gremium mit allen Standards der Internetwelt. Der erste Schritt der Organisation war die Entwicklung der HTML 2.0-Spezifikation. Diese Version bietet die Möglichkeit, mithilfe von Formularen Informationen vom Computer des Benutzers an den Server zu übertragen. Der nächste Schritt war das HTML-3-Projekt, mit dessen Arbeit 1995 begonnen wurde. Erstmals wurde das CSS-System (Cascading Style Sheets, hierarchische Stylesheets) eingeführt. Mit CSS können Sie Text formatieren, ohne das logische und strukturelle Markup zu beeinträchtigen. Der HTML-3-Standard wurde nie genehmigt; stattdessen wurde HTML 3.2 im Januar 1997 erstellt und übernommen. Bereits im Dezember 1997 stimmte das W3C zu HTML-Standard 4.0, das in logische und visuelle Tags unterteilt ist.

Das Wachstum des Internets zeigte 1995, dass die Regulierung von Konnektivitäts- und Finanzierungsfragen nicht allein in den Händen der NSF liegen konnte. 1995 wurden die Zahlungen für den Anschluss zahlreicher privater Netze an das nationale Backbone auf regionale Netze übertragen.

Das Internet ist weit über das hinausgewachsen, was es sich vorgestellt und konzipiert hatte; es ist den Agenturen und Organisationen entwachsen, die es geschaffen haben; sie können bei seinem Wachstum keine dominierende Rolle mehr spielen. Heute handelt es sich um ein leistungsstarkes weltweites Kommunikationsnetzwerk, das auf verteilten Vermittlungselementen – Hubs und Kommunikationskanälen – basiert. Seit 1983 ist das Internet exponentiell gewachsen und kaum ein Detail ist aus dieser Zeit erhalten geblieben – das Internet basiert immer noch auf der TCP/IP-Protokollsuite.

Wurde der Begriff „Internet“ ursprünglich zur Beschreibung eines auf dem Internetprotokoll (IP) aufgebauten Netzwerks verwendet, hat dieses Wort mittlerweile eine globale Bedeutung erlangt und wird nur noch manchmal als Bezeichnung für eine Reihe miteinander verbundener Netzwerke verwendet. Streng genommen besteht das Internet aus einer Reihe physisch getrennter Netzwerke, die durch ein einziges IP-Protokoll miteinander verbunden sind, was es uns ermöglicht, von ihnen als einem logischen Netzwerk zu sprechen. Das rasante Wachstum des Internets hat zu einem erhöhten Interesse an den TCP/IP-Protokollen geführt und in der Folge sind Spezialisten und Unternehmen aufgetaucht, die eine Reihe anderer Anwendungen dafür gefunden haben. Dieses Protokoll wurde zum Aufbau lokaler Netzwerke (LAN – Local) verwendet Gebietsnetzwerk), auch wenn ihnen keine Verbindung zum Internet zur Verfügung stand. Darüber hinaus wurde TCP/IP beim Aufbau von Unternehmensnetzwerken eingesetzt, die Internet-Technologien, einschließlich WWW (World Wide Web) – das World Wide Web, übernahmen, um einen effektiven Austausch unternehmensinterner Informationen zu etablieren. Diese Unternehmensnetzwerke werden „Intranets“ genannt und können mit dem Internet verbunden sein oder auch nicht.

Tim Berners-Lee, Autor der HTTP-, URI/URL- und HTML-Technologien, gilt als Erfinder des World Wide Web. 1980 schrieb er für seinen eigenen Gebrauch das Programm Enquirer, das zufällige Assoziationen zum Speichern von Daten nutzte und die konzeptionelle Grundlage für das World Wide Web legte. 1989 schlug Tim Berners-Lee das globale Hypertext-Projekt vor, das heute als World Wide Web bekannt ist. Das Projekt beinhaltete die Veröffentlichung von Hypertextdokumenten, die durch Hyperlinks miteinander verbunden sind, was Wissenschaftlern die Suche und Konsolidierung von Informationen erleichtern würde. Um das Projekt umzusetzen, erfand er URIs, das HTTP-Protokoll und die HTML-Sprache. Das sind Technologien, die aus dem modernen Internet nicht mehr wegzudenken sind. Zwischen 1991 und 1993 verfeinerte Berners-Lee die technischen Spezifikationen dieser Standards und veröffentlichte sie. Er schrieb den weltweit ersten Webserver „httpd“ und den weltweit ersten Hypertext-Webbrowser namens „WorldWideWeb“. Dieser Browser war auch ein WYSIWYG-Editor (kurz für What You See Is What You Get). Seine Entwicklung begann im Oktober 1990 und wurde im Dezember desselben Jahres abgeschlossen. Das Programm lief in der NeXTStep-Umgebung und verbreitete sich im Sommer 1991 im Internet. Berners-Lee erstellte die weltweit erste Website unter http://info.cern.ch/; die Website ist jetzt archiviert. Diese Seite ging am 6. August 1991 im Internet online. Auf dieser Website wurde beschrieben, was das World Wide Web ist, wie man einen Webserver installiert, wie man einen Browser verwendet usw. Diese Website war auch das erste Internetverzeichnis der Welt, da Tim Berners-Lee später eine Liste mit Links zu anderen Websites veröffentlichte und pflegte Websites.

Seit 1994 übernimmt das von Tim Berners-Lee gegründete World Wide Web Consortium (W3C) die Hauptarbeit zur Entwicklung des World Wide Web. Dieses Konsortium ist eine Organisation, die Technologiestandards für das Internet und das World Wide Web entwickelt und implementiert. Die Mission des W3C besteht darin, „das volle Potenzial des World Wide Web freizusetzen, indem Protokolle und Prinzipien festgelegt werden, um die langfristige Entwicklung des Web sicherzustellen.“ Zwei weitere Hauptziele des Konsortiums bestehen darin, eine vollständige „Internationalisierung des Netzwerks“ sicherzustellen und das Netzwerk für Menschen mit Behinderungen zugänglich zu machen.

Das W3C entwickelt einheitliche Prinzipien und Standards für das Internet (genannt „Recommendations“, englisch W3C Recommendations), die dann von Software- und Hardwareherstellern umgesetzt werden. Auf diese Weise wird Kompatibilität zwischen Softwareprodukten und Geräten verschiedener Unternehmen erreicht, was das World Wide Web fortschrittlicher, universeller und komfortabler macht. Alle Empfehlungen des World Wide Web Consortium sind offen, also nicht durch Patente geschützt und können von jedem ohne finanzielle Beiträge an das Konsortium umgesetzt werden.

Derzeit besteht das World Wide Web aus Millionen von Internet-Webservern, die sich auf der ganzen Welt befinden. Ein Webserver ist ein Programm, das auf einem mit einem Netzwerk verbundenen Computer ausgeführt wird und das HTTP-Protokoll zur Datenübertragung verwendet. In seiner einfachsten Form empfängt ein solches Programm über das Netzwerk eine HTTP-Anfrage für eine bestimmte Ressource, findet die entsprechende Datei auf der lokalen Festplatte und sendet sie über das Netzwerk an den anfragenden Computer. Komplexere Webserver sind in der Lage, Ressourcen als Reaktion auf eine HTTP-Anfrage dynamisch zuzuweisen. Um Ressourcen (häufig Dateien oder Teile davon) im World Wide Web zu identifizieren, werden Uniform Resource Identifier (URIs) verwendet. Uniform Resource Locators (URLs) werden verwendet, um den Standort von Ressourcen im Netzwerk zu bestimmen. Solche URL-Locators kombinieren die URI-Identifizierungstechnologie und das DNS-Domänennamensystem (Domain Name System). Ein Domänenname (oder direkt eine IP-Adresse in numerischer Schreibweise) ist Teil der URL, um einen Computer (genauer gesagt eines seiner Netzwerke) zu bezeichnen interfaces) ), der den Code des gewünschten Webservers ausführt.

Um vom Webserver empfangene Informationen anzuzeigen, wird auf dem Client-Computer ein spezielles Programm, ein Webbrowser, verwendet. Hauptsächlich Webfunktion–browser – Hypertext anzeigen. Das World Wide Web ist untrennbar mit den Konzepten Hypertext und Hyperlinks verbunden. Die meisten Informationen im Web sind Hypertext. Um die Erstellung, Speicherung und Anzeige von Hypertext im World Wide Web zu erleichtern, wird traditionell HTML (HyperText Markup Language) verwendet, eine Hypertext-Auszeichnungssprache. Die Arbeit des Markierens von Hypertext wird Layout genannt; Markup-Master werden Webmaster genannt. Nach dem HTML-Markup wird der resultierende Hypertext in einer Datei abgelegt; eine solche HTML-Datei ist die häufigste Ressource im World Wide Web. Sobald eine HTML-Datei einem Webserver zur Verfügung gestellt wird, wird sie als „Webseite“ bezeichnet. Eine Website besteht aus einer Sammlung von Webseiten. Hyperlinks werden dem Hypertext von Webseiten hinzugefügt. Mithilfe von Hyperlinks können Benutzer des World Wide Web problemlos zwischen Ressourcen (Dateien) navigieren, unabhängig davon, ob sich die Ressourcen auf dem lokalen Computer oder auf einem Remote-Server befinden. „Web“-Hyperlinks basieren auf der URL-Technologie.

Generell lässt sich sagen, dass das World Wide Web auf „drei Säulen“ basiert: HTTP, HTML und URL. Obwohl HTML in letzter Zeit etwas an Bedeutung verloren hat und moderneren Markup-Technologien Platz gemacht hat: XHTML und XML. XML (eXtensible Markup Language) gilt als Grundlage für andere Auszeichnungssprachen. Um die visuelle Wahrnehmung des Webs zu verbessern, ist die CSS-Technologie weit verbreitet, mit der Sie für viele Webseiten einheitliche Designstile festlegen können. Eine weitere Innovation, die es zu beachten gilt, ist das Ressourcenbenennungssystem URN (Uniform Resource Name).

Ein beliebtes Konzept für die Entwicklung des World Wide Web ist die Schaffung eines semantischen Webs. Das Semantic Web ist eine Ergänzung zum bestehenden World Wide Web, das darauf ausgelegt ist, im Netzwerk veröffentlichte Informationen für Computer verständlicher zu machen. Das Semantic Web ist ein Konzept eines Netzwerks, in dem jede Ressource in menschlicher Sprache mit einer Beschreibung versehen wird, die ein Computer verstehen kann. Das Semantic Web eröffnet den Zugang zu klar strukturierten Informationen für jede Anwendung, unabhängig von der Plattform und unabhängig von Programmiersprachen. Programme werden in der Lage sein, die notwendigen Ressourcen selbst zu finden, Informationen zu verarbeiten, Daten zu klassifizieren, logische Zusammenhänge zu erkennen, Schlussfolgerungen zu ziehen und auf der Grundlage dieser Schlussfolgerungen sogar Entscheidungen zu treffen. Wenn das Semantic Web umfassend angenommen und sinnvoll umgesetzt wird, hat es das Potenzial, eine Revolution im Internet auszulösen. Um eine maschinenlesbare Beschreibung einer Ressource im Semantic Web zu erstellen, wird das RDF-Format (Resource Description Framework) verwendet, das auf der XML-Syntax basiert und URIs zur Identifizierung von Ressourcen verwendet. Neu in diesem Bereich sind RDFS (RDF Schema) und SPARQL (Protocol And RDF Query Language), eine neue Abfragesprache für den schnellen Zugriff auf RDF-Daten.

Derzeit gibt es zwei Trends in der Entwicklung des World Wide Web: das Semantic Web und das Social Web. Beim Semantic Web geht es darum, die Kohärenz und Relevanz von Informationen im World Wide Web durch die Einführung neuer Metadatenformate zu verbessern. Das Social Web beruht auf der Organisation der im Web verfügbaren Informationen, die von den Webbenutzern selbst durchgeführt wird. In der zweiten Richtung werden Entwicklungen, die Teil des Semantic Web sind, aktiv als Werkzeuge genutzt (RSS und andere Webkanalformate, OPML, XHTML-Mikroformate).

Die Internettelefonie hat sich zu einer der modernsten und kostengünstigsten Kommunikationsarten entwickelt. Als ihren Geburtstag gilt der 15. Februar 1995, als VocalTec sein erstes Softphone herausbrachte – ein Programm zum Sprachaustausch über ein IP-Netzwerk. Im Oktober 1996 veröffentlichte Microsoft dann die erste Version von NetMeeting. Und bereits 1997 waren Verbindungen über das Internet zwischen zwei gewöhnlichen Telefonteilnehmern, die sich an völlig unterschiedlichen Orten der Welt befanden, weit verbreitet.

Warum regelmäßige Intercity- und internationale Flüge? Telefonkommunikation so teuer? Dies erklärt sich aus der Tatsache, dass der Teilnehmer während eines Gesprächs einen gesamten Kommunikationskanal belegt, und zwar nicht nur, wenn er mit dem Gesprächspartner spricht oder ihm zuhört, sondern auch, wenn er schweigt oder vom Gespräch abgelenkt ist. Dies geschieht, wenn die Sprache über das Telefon im üblichen analogen Verfahren übertragen wird.

Bei der digitalen Methode können Informationen nicht kontinuierlich, sondern in separaten „Paketen“ übertragen werden. Dann können Informationen von vielen Teilnehmern gleichzeitig über einen Kommunikationskanal versendet werden. Dieses Prinzip der paketweisen Informationsübertragung ähnelt dem Transport vieler Briefe mit unterschiedlichen Adressen in einem Postwagen. Schließlich „fahren“ sie nicht mit einem Postauto, um jeden Brief einzeln zu transportieren! Durch diese temporäre „Paketverdichtung“ ist es möglich, bestehende Kommunikationskanäle wesentlich effizienter zu nutzen und zu „komprimieren“. An einem Ende des Kommunikationskanals werden Informationen in Pakete aufgeteilt, die wie ein Brief jeweils mit einer individuellen Adresse versehen sind. Über einen Kommunikationskanal werden Pakete von vielen Teilnehmern „verstreut“ übertragen. Am anderen Ende des Kommunikationskanals werden Pakete mit derselben Adresse erneut zusammengefasst und an ihr Ziel gesendet. Dieses Paketprinzip ist im Internet weit verbreitet.

Haben Persönlicher Computer, Soundkarte, kompatibles Mikrofon und Kopfhörer (bzw Sound-Lautsprecher) kann ein Teilnehmer über die Internettelefonie jeden Teilnehmer anrufen, der über ein normales Festnetztelefon verfügt. Während dieses Gesprächs wird er auch nur für die Nutzung des Internets bezahlen. Vor der Nutzung der Internettelefonie muss der Teilnehmer, der einen PC besitzt, ein spezielles Programm darauf installieren.

Um Internet-Telefondienste nutzen zu können, ist kein PC erforderlich. Dazu reicht ein normales Telefon mit Tonwahl aus. In diesem Fall geht jede gewählte Ziffer nicht in Form einer unterschiedlichen Anzahl elektrischer Impulse in die Leitung, wie bei der Drehung der Scheibe, sondern in Form von Wechselströmen unterschiedlicher Frequenz. Solch Tonmodus in den meisten modernen Telefonen zu finden. Um Internettelefonie über ein Telefon nutzen zu können, müssen Sie eine Kreditkarte kaufen und einen leistungsstarken zentralen Computerserver unter der auf der Karte angegebenen Nummer anrufen. Anschließend übermittelt die Stimme der Servermaschine (optional auf Russisch oder Englisch) die Befehle: Wählen mit den Telefontasten Seriennummer und Kartenschlüssel, wählen Sie die Landesvorwahl und die Nummer Ihres zukünftigen Gesprächspartners. Als nächstes dreht sich der Server Analogsignal in digital, sendet es in eine andere Stadt, an einen dort befindlichen Server, der es erneut umwandelt Digitalsignal analog und sendet es an den gewünschten Teilnehmer. Die Gesprächspartner sprechen so, als ob normales Telefon Manchmal spüren Sie jedoch eine leichte Verzögerung (einen Bruchteil einer Sekunde) in der Reaktion. Erinnern wir uns daran, dass Sprachinformationen zur Einsparung von Kommunikationskanälen in „Paketen“ digitaler Daten übertragen werden: Ihre Sprachinformationen werden in Segmente, Pakete, sogenannte Internetprotokolle (IP), unterteilt.

Im Jahr 2003 wurde das Skype-Programm entwickelt (www.skype.com), das völlig kostenlos ist und für dessen Installation und Nutzung praktisch keine Kenntnisse des Benutzers erforderlich sind. Es ermöglicht Ihnen, im Videomodus mit Gesprächspartnern zu sprechen, die sich an ihren Computern in verschiedenen Teilen der Welt befinden. Damit sich die Gesprächspartner sehen können, muss der Computer jedes einzelnen von ihnen mit einer Webcam ausgestattet sein.

So was ein langer Weg Die Menschheit hat große Fortschritte bei der Entwicklung von Kommunikationsmitteln gemacht: von Signalfeuern und Trommeln bis hin zu einem Mobiltelefon, das es zwei Menschen überall auf unserem Planeten ermöglicht, nahezu augenblicklich zu kommunizieren. Gleichzeitig entsteht bei den Abonnenten trotz der unterschiedlichen Entfernungen ein Gefühl persönlicher Kommunikation.