TORIma Akademie Logo TORIma Akademie
Weltweites Netz (World Wide Web)
Technologie

Weltweites Netz (World Wide Web)

TORIma Akademie — Internetgeschichte

World Wide Web

Weltweites Netz (World Wide Web)

Das World Wide Web (auch bekannt als WWW, W3 oder einfach das Web) ist ein öffentliches, miteinander verbundenes Informationssystem, das den Austausch von Inhalten über das Internet ermöglicht.…

Das World Wide Web (auch WWW, W3 oder einfach Web genannt) ist ein weltweit vernetztes Informationssystem, das für die Verbreitung von Inhalten über das Internet konzipiert ist. Es bietet Zugriff auf verschiedene Dokumente und webbasierte Ressourcen und hält sich dabei an die vom Hypertext Transfer Protocol (HTTP) definierten Protokolle.

Das World Wide Web (auch bekannt als WWW, W3 oder einfach das Web) ist ein öffentliches, miteinander verbundenes Informationssystem, das die gemeinsame Nutzung von Inhalten über das Internet ermöglicht. Es erleichtert den Zugriff auf Dokumente und andere Webressourcen gemäß den spezifischen Regeln des Hypertext Transfer Protocol (HTTP).

Das Web wurde 1989 vom englischen Informatiker Tim Berners-Lee am CERN konzipiert und 1993 öffentlich eingeführt. Sein Grundkonzept war ein „universelles verknüpftes Informationssystem“. Webserver ermöglichen dem Netzwerk den Zugriff auf Dokumente und verschiedene Medieninhalte, die dann von Anwendungen wie Webbrowsern abgerufen werden können. Uniform Resource Locators (URLs), bei denen es sich um bestimmte Zeichenfolgen handelt, dienen der Identifizierung und Lokalisierung von Servern und Ressourcen im World Wide Web.

Das grundlegende und vorherrschende Dokumentformat ist die Webseite, die mithilfe der Hypertext Markup Language (HTML) strukturiert ist. Diese Auszeichnungssprache umfasst einfachen Text, Bilder, integrierte Video- und Audioinhalte sowie Skripte (prägnante Programme), die komplexe Benutzerinteraktionen erleichtern sollen. HTML enthält auch Hyperlinks (eingebettete URLs), die den direkten Zugriff auf andere Webressourcen ermöglichen. Der Vorgang des Navigierens im Internet, der oft als „Websurfen“ bezeichnet wird, beinhaltet das Durchsuchen dieser Hyperlinks über verschiedene Websites hinweg. Webanwendungen sind im Wesentlichen Webseiten, die als Anwendungssoftware fungieren. Die Datenübertragung im Internet erfolgt im Web über HTTP. Eine Website besteht aus einer Sammlung von Webressourcen mit einem gemeinsamen Thema und typischerweise einem einheitlichen Domainnamen. Während ein einzelner Webserver zahlreiche Websites hosten kann, können stark frequentierte Websites von mehreren Servern unterstützt werden. Inhalte für Websites stammen von einer Vielzahl von Unternehmen, darunter Unternehmen, Organisationen, Regierungsbehörden und einzelnen Mitwirkenden, und umfassen ein breites Spektrum an Bildungs-, Unterhaltungs-, Handels- und Regierungsdaten.

Das World Wide Web hat sich zur herausragenden globalen Plattform für Informationssysteme entwickelt. Es dient als Hauptinstrument, über das Milliarden von Menschen weltweit mit dem Internet interagieren.

Verlauf

Die Entstehung des Webs wird dem englischen Informatiker Tim Berners-Lee während seiner Zeit am CERN zugeschrieben. Seine Motivation resultierte aus den Herausforderungen bei der Verwaltung, Aktualisierung und Lokalisierung von Dokumenten und Daten innerhalb der umfangreichen und dynamischen Umgebung der Organisation sowie der Notwendigkeit, diese an externe Mitarbeiter weiterzugeben. Berners-Lees Entwurf weicht von herkömmlichen Baumstrukturmethoden ab, wie sie beispielsweise im CERNDOC-Dokumentationssystem und im Unix-Dateisystem verwendet werden, und auch von Schlüsselwort-Tagging-Ansätzen, die im VAX/NOTES-System beispielhaft dargestellt sind. Stattdessen integrierte er Prinzipien, die zuvor in seinem persönlichen INQUIRE-System (1980) implementiert waren, das am CERN entwickelt wurde. Die anschließende Entdeckung des Hypertext-Modells von Ted Nelson (1965), das eine uneingeschränkte Dokumentverknüpfung über als „Hot Spots“ im Text eingebettete Hyperlinks ermöglichte, bestätigte den konzeptionellen Rahmen von Berners-Lee weiter.

Apples HyperCard-System machte dieses Modell später populär. Das entstehende System von Berners-Lee war jedoch im Wesentlichen darauf ausgelegt, Verbindungen zwischen mehreren Datenbanken auf unterschiedlichen Computern zu ermöglichen und zahlreichen Benutzern den gleichzeitigen Zugriff von jedem mit dem Internet verbundenen Gerät aus zu ermöglichen. Er legte außerdem fest, dass das System letztendlich verschiedene Medientypen über Text hinaus unterstützen sollte, darunter Grafiken, Audio und Video. Es war vorgesehen, dass Links auf dynamische Datendateien verweisen oder sogar Programme auf den jeweiligen Servercomputern starten. Darüber hinaus konzipierte er „Gateways“, um den Zugriff auf Dokumente zu ermöglichen, die über alternative Strukturen wie herkömmliche Computerdateisysteme oder das Usenet organisiert sind. Entscheidend ist, dass Berners-Lee ein dezentrales System befürwortete, ohne jegliche zentrale Autorität oder Aufsicht hinsichtlich der Linkerstellung.

Berners-Lee legte dem CERN im Mai 1989 einen Vorschlag vor, ohne dem System einen Namen zu geben. Bis Ende 1990 hatte er erfolgreich ein funktionsfähiges System implementiert, das einen Browser namens WorldWideWeb (später als Projekt- und Netzwerkname bezeichnet) und einen am CERN betriebenen HTTP-Server umfasste. Während dieser Entwicklung definierte er die erste Version des HTTP-Protokolls, etablierte die grundlegende URL-Syntax und machte damit implizit HTML zum Hauptdokumentformat. Ab Januar 1991 wurde die Technologie zunächst an externe Forschungseinrichtungen verteilt, gefolgt von einer breiteren Veröffentlichung im gesamten Internet am 23. August 1991. Das Web erzielte innerhalb des CERN beachtliche Erfolge und wurde anschließend auf andere wissenschaftliche und akademische Einrichtungen ausgeweitet. Innerhalb von zwei Jahren stieg die Zahl der in Betrieb befindlichen Websites auf fünfzig.

CERN veröffentlichte das Web-Protokoll und den zugehörigen Code am 30. April 1993 lizenzgebührenfrei und erleichterte so seine weitverbreitete Einführung. Nach der Veröffentlichung des Webbrowsers „Mosaic“ durch die NCSA im Laufe des Jahres erlebte das Web einen rasanten Anstieg der Beliebtheit, und in weniger als einem Jahr entstanden Tausende von Websites. Mosaik, ein grafischer Browser, bot Funktionen wie die Inline-Bildanzeige und die Formularübermittlung, die vom HTTPd-Server verarbeitet wurden. Im folgenden Jahr gründeten Marc Andreessen und Jim Clark Netscape und brachten den Navigator-Browser auf den Markt, der Java und JavaScript in das Web integrierte. Dieser Browser erlangte schnell eine beherrschende Stellung. Netscape wurde 1995 in eine Aktiengesellschaft umgewandelt, eine Entwicklung, die eine weit verbreitete Begeisterung für das Web entfachte und die Dotcom-Blase auslöste. Als Reaktion darauf entwickelte Microsoft seinen proprietären Browser Internet Explorer und begann damit die „Browserkriege“. Seine Integration in das Windows-Betriebssystem sicherte seine Dominanz für einen Zeitraum von 14 Jahren.

Berners-Lee gründete das World Wide Web Consortium (W3C), das 1996 XML entwickelte und sich für den Ersatz von HTML durch das strengere XHTML einsetzte. Gleichzeitig nutzten Entwickler eine Internet Explorer-Funktion namens XMLHttpRequest, um Ajax-Anwendungen zu erstellen und leiteten damit die Web 2.0-Ära ein. Mozilla, Opera und Apple lehnten XHTML jedoch ab und gründeten die WHATWG, die später HTML5 entwickelte. Im Jahr 2009 erkannte das W3C diese Entwicklungen und stellte die Unterstützung für XHTML ein. Im Jahr 2019 übertrug das W3C die Aufsicht über die HTML-Spezifikation auf die WHATWG.

Das World Wide Web spielte eine entscheidende Rolle bei der Entwicklung des Informationszeitalters und diente als Hauptmedium, über das Milliarden von Menschen mit dem Internet interagieren.

Wettbewerb mit Gopher

Gopher wurde von der University of Minnesota entwickelt und gepflegt und dient als Alternative zum World Wide Web.

Nomenklatur

Laut Tim Berners-Lee besteht die offizielle Schreibweise von World Wide Web aus drei unterschiedlichen, großgeschriebenen Wörtern ohne Bindestriche. Die Verbreitung des Präfixes „www“ hat abgenommen, insbesondere da Webanwendungen Wert auf Branding und einfache Aussprache ihrer Domainnamen legen. Mit der Ausweitung des mobilen Webs werden Dienste wie Gmail.com, Outlook.com, Myspace.com, Facebook.com und Twitter.com häufig ohne die Einbeziehung von „com“ in ihren Domainnamen erwähnt.

Im Englischen wird das Akronym www üblicherweise als double-u double-u double-u ausgesprochen. Bei einigen Benutzern, insbesondere in Neuseeland, wird eine abweichende Aussprache, dub-dub-dub, beobachtet. Stephen Fry formuliert es in seiner Podcast-Serie „Podgrams“ als wuh wuh wuh. Der englische Autor Douglas Adams bemerkte in The Independent on Sunday (1999): „Das World Wide Web ist das einzige Ding, das ich kenne, dessen verkürzte Form dreimal länger zu sagen ist als die Abkürzung dafür.“

Funktion

Die Begriffe Internet und World Wide Web werden häufig synonym verwendet; Sie bezeichnen jedoch unterschiedliche Konzepte. Das Internet stellt ein weltweites System miteinander verbundener Computernetzwerke dar, das durch Telekommunikation und optische Netzwerkinfrastruktur ermöglicht wird. Umgekehrt stellt das World Wide Web eine globale Sammlung von Dokumenten und verschiedenen Ressourcen dar, die über Hyperlinks und Uniform Resource Identifiers (URIs) miteinander verbunden sind. Der Zugriff auf Webressourcen erfolgt über HTTP oder HTTPS, die als Internetprotokolle auf Anwendungsebene fungieren und zugrunde liegende Internettransportprotokolle nutzen.

Der Zugriff auf eine Webseite im World Wide Web beginnt normalerweise entweder durch die Eingabe des Uniform Resource Locator (URL) der Seite in einen Webbrowser oder durch die Aktivierung eines Hyperlinks, der auf die gewünschte Seite oder Ressource führt. Anschließend initiiert der Webbrowser eine Reihe von Hintergrundkommunikationsaustauschen, um den angeforderten Inhalt abzurufen und darzustellen. In den 1990er Jahren wurde die Nutzung eines Browsers zum Anzeigen von Webseiten und zum Wechseln zwischen ihnen über Hyperlinks umgangssprachlich als „Browsen“, „Websurfen“ (analog zum Kanalsurfen) oder „Navigieren im Web“ bezeichnet. Erste Untersuchungen zu diesem aufkommenden Verhalten untersuchten Benutzerinteraktionsmuster mit Webbrowsern. Bei einer Untersuchung wurden beispielsweise fünf verschiedene Benutzermuster identifiziert: exploratives Surfen, Fenstersurfen, weiterentwickeltes Surfen, begrenzte Navigation und gezielte Navigation.

Dieses Beispiel veranschaulicht den Betriebsablauf eines Webbrowsers beim Abrufen einer Seite von der URL . Der Browser übersetzt zunächst den in die URL eingebetteten Servernamen () in eine Internet Protocol-Adresse und nutzt dabei das weltweit verteilte Domain Name System (DNS). Diese Auflösung ergibt eine IP-Adresse, beispielsweise 203.0.113.4 oder 2001:db8:2e::7334. Anschließend sendet der Browser eine HTTP-Anfrage über das Internet an den angegebenen Computer unter dieser IP-Adresse, um die Ressource abzurufen. Es fordert den Dienst speziell von einer TCP-Portnummer (Transmission Control Protocol) an, die üblicherweise mit dem HTTP-Dienst verknüpft ist, wodurch der empfangende Host eine HTTP-Anfrage von anderen Netzwerkprotokollen unterscheiden kann, die er möglicherweise verarbeitet. HTTP wird normalerweise auf Port 80 betrieben, während HTTPS üblicherweise Port 443 verwendet. Die Struktur einer HTTP-Anfrage kann so prägnant sein wie zwei Textzeilen:

Der Computer, der die HTTP-Anfrage empfängt, leitet sie an die Webserver-Software weiter, die so konfiguriert ist, dass sie auf Port 80 auf solche Anfragen wartet. Sollte der Webserver in der Lage sein, die Anfrage zu erfüllen, sendet er eine HTTP-Antwort zurück an den Browser und signalisiert damit die erfolgreiche Verarbeitung:

Auf diese Antwort folgt anschließend der Inhalt der angeforderten Seite. Für eine grundlegende Webseite könnte die Struktur der Hypertext Markup Language (HTML) wie folgt aussehen:

Der Webbrowser verarbeitet den HTML-Code und interpretiert das Markup (<title>, <p> unter anderem für Absatz), der Textelemente einschließt, um Inhalte für die Anzeige zu formatieren. Zahlreiche Webseiten nutzen HTML, um auf Uniform Resource Locators (URLs) ergänzender Ressourcen zu verweisen, darunter Bilder, verschiedene eingebettete Medien, Skripte, die das Seitenverhalten beeinflussen, und Cascading Style Sheets, die das Seitenlayout vorgeben. Der Browser sendet dann weitere HTTP-Anfragen an den Webserver, um diese zusätzlichen Internetmedientypen abzurufen. Beim Empfang von Inhalten vom Webserver rendert der Browser die Seite inkrementell auf der Anzeige und befolgt dabei die in seinem HTML und den zugehörigen Ressourcen dargelegten Spezifikationen.

HTML

Hypertext Markup Language (HTML) dient als grundlegende Auszeichnungssprache für die Entwicklung von Webseiten und Webanwendungen. Neben Cascading Style Sheets (CSS) und JavaScript stellt HTML eine zentrale Triade der Kerntechnologien dar, die dem World Wide Web zugrunde liegen.

Webbrowser beziehen HTML-Dokumente entweder von einem Webserver oder einem lokalen Speicher und rendern diese Dokumente anschließend in Multimedia-Webseiten. HTML beschreibt semantisch die Struktur einer Webseite und historisch integrierte Anweisungen zur visuellen Darstellung des Dokuments.

HTML-Elemente bilden die grundlegenden Komponenten von HTML-Seiten. Durch HTML-Konstrukte können verschiedene Objekte, einschließlich Bilder und interaktive Formulare, in die gerenderte Seite eingebettet werden. HTML erleichtert die Erstellung strukturierter Dokumente, indem es Textinhalten strukturelle Semantik zuweist, die Überschriften, Absätze, Listen, Links, Zitate und andere Elemente umfasst. HTML-Elemente werden durch Tags abgegrenzt, die durch spitze Klammern ausgedrückt werden. Bestimmte Tags, wie zum Beispiel <img /> und <input />, Inhalte direkt in die Seite integrieren. Umgekehrt schließen andere Tags, wie zum Beispiel <p>, Informationen über Dokumenttext ein und übermitteln diese, wobei möglicherweise zusätzliche Tags als Unterelemente eingebunden werden. Browser rendern die HTML-Tags nicht selbst, sondern nutzen sie, um den Inhalt der Seite zu interpretieren.

HTML unterstützt die Einbettung von Skriptsprachen wie JavaScript, die das Verhalten und den Inhalt von Webseiten dynamisch beeinflussen. Die visuelle Darstellung und das Layout der Inhalte werden durch die Einbindung von Cascading Style Sheets (CSS) bestimmt. Seit 1997 befürwortet das World Wide Web Consortium (W3C), das für die Pflege sowohl der HTML- als auch der CSS-Standards verantwortlich ist, die Verwendung von CSS gegenüber explizitem Präsentations-HTML.

Verknüpfung

Die meisten Webseiten enthalten Hyperlinks, die zu anderen relevanten Seiten, herunterladbaren Dateien, Quelldokumenten, Definitionen und verschiedenen Webressourcen führen. Innerhalb der grundlegenden HTML-Struktur wird ein Hyperlink wie folgt codiert: <a href="org/home.html">Example.org Homepage</a>.

Eine Zusammenstellung miteinander verbundener, wertvoller Ressourcen, die durch Hypertext verknüpft sind, wird allgemein als Web von Informationen bezeichnet. Das Aufkommen der Internetpublikation führte im November 1990 zu dem, was Tim Berners-Lee ursprünglich als WorldWideWeb bezeichnete (ursprünglich in CamelCase, einer Konvention, die später aufgegeben wurde).

Die strukturelle Anordnung von Hyperlinks im Web wird durch den Webgraphen dargestellt, wobei Knoten Webseiten (oder Uniform Resource Locators, URLs) bezeichnen und gerichtete Kanten die Hyperlinks bezeichnen, die sie verbinden. Mit der Zeit sind zahlreiche Webressourcen, auf die über Hyperlinks verwiesen wird, nicht mehr verfügbar, werden verschoben oder mit neuen Inhalten aktualisiert. Dieser Prozess macht Hyperlinks überflüssig, ein Phänomen, das als „Linkfäule“ bekannt ist, wobei die betroffenen Hyperlinks häufig als „tote“ Links bezeichnet werden. Der vergängliche Charakter des Web hat zu umfangreichen Initiativen zur Archivierung von Websites geführt, unter denen das Internetarchiv, das seit 1996 in Betrieb ist, das prominenteste Beispiel ist.

Das „www“-Präfix

Viele mit dem World Wide Web verbundene Hostnamen beginnen mit www, einer Konvention, die aus der historischen Praxis stammt, Internet-Hosts anhand ihrer bereitgestellten Dienste zu bezeichnen. Der Hostname eines Webservers erscheint häufig als www, analog zu ftp für einen FTP-Server oder news oder nntp für einen Usenet-Newsserver. Diese Hostnamen manifestieren sich als Domain Name System (DNS) oder Subdomain-IDs, beispielsweise com. Trotz seiner Verbreitung ist die Einbeziehung von www durch keinen technischen oder politischen Standard vorgeschrieben und viele Websites funktionieren ohne diesen; Insbesondere war der erste Webserver nxoc01.cern.ch. Paolo Palazzi, ein Kollege von Tim Berners-Lee am CERN, wies darauf hin, dass die weit verbreitete Einführung von www als Subdomain unbeabsichtigt war. Die ursprüngliche Absicht bestand darin, die Seite des World Wide Web-Projekts unter ch zu speichern, während info.cern.ch als CERN-Homepage festgelegt wurde. Die DNS-Einträge wurden jedoch nie neu konfiguriert, was dazu führte, dass die Praxis, dem Website-Domänennamen einer Institution das Präfix www voranzustellen, nachgeahmt wurde. Viele etablierte Websites verwenden weiterhin dieses Präfix oder verwenden alternative Subdomainnamen wie www2, secure oder en für bestimmte Funktionalitäten. Eine beträchtliche Anzahl dieser Webserver ist so konfiguriert, dass sowohl der primäre Domänenname (z. B. example.com) als auch die www-Subdomäne (z. B. com) auf dieselbe Site verweisen. Umgekehrt erfordern einige ein bestimmtes Formular oder sie können auf unterschiedliche Websites aufgelöst werden. Die Verwendung eines Subdomänennamens erleichtert den Lastausgleich für eingehenden Webverkehr durch die Erstellung eines CNAME-Eintrags, der auf einen Cluster von Webservern verweist. Da CNAME-Einträge derzeit nur Subdomains unterstützen, kann mit dem bloßen Domain-Root kein gleichwertiges Ergebnis erzielt werden.

Wenn ein Benutzer einen unvollständigen Domainnamen in die Adressleiste eines Webbrowsers eingibt, versuchen bestimmte Browser automatisch, „www“ voranzustellen und Suffixe wie „.com“, „.org“ oder „.net“ basierend auf den fehlenden Komponenten anzuhängen. Beispielsweise könnte die Eingabe von „microsoft“ in microsoft.com/ und „openoffice“ in openoffice.org umgewandelt werden. Diese Funktionalität erschien Anfang 2003 in frühen Versionen von Firefox, damals bekannt als „Firebird“, und orientierte sich an früheren Browserpraktiken wie denen von Lynx. Berichten zufolge hat sich Microsoft 2008 ein US-Patent für dieses Konzept gesichert, das jedoch speziell auf mobile Geräte beschränkt war.

Schemaspezifizierer

Die Schemaspezifizierer Diese Protokolle bestimmen die Kommunikationsmethode für Datenanforderungen und -antworten. Während HTTP für die Funktionalität des World Wide Web von grundlegender Bedeutung ist, ist die von HTTPS bereitgestellte Verschlüsselungsebene von entscheidender Bedeutung, wenn Webbrowser vertrauliche Informationen wie Passwörter oder Finanzdaten übertragen oder darauf zugreifen. Normalerweise stellen Webbrowser vom Benutzer eingegebenen URIs automatisch

voran

Seiten

Eine Webseite (alternativ geschrieben als Webseite) ist ein Dokument, das auf Kompatibilität mit dem World Wide Web und Webbrowsern ausgelegt ist. Webbrowser rendern diese Seiten zur Anzeige auf Monitoren oder Mobilgeräten.

Die Bezeichnung Webseite bezeichnet im Allgemeinen den visuellen Inhalt, der einem Benutzer präsentiert wird, kann sich jedoch auch auf den Inhalt der zugrunde liegenden Computerdatei beziehen, bei dem es sich typischerweise um eine Textdatei mit Hypertext handelt, die in HTML oder einer ähnlichen Auszeichnungssprache verfasst ist. Standard-Webseiten enthalten Hypertext und erleichtern die Navigation zu anderen Webseiten über Hyperlinks, die häufig als Links bezeichnet werden. Beim Rendern jeder Webseite müssen Browser häufig verschiedene Webressourcenkomponenten abrufen, darunter Stylesheets, Skripte und Bilder.

Innerhalb einer Netzwerkumgebung ist ein Webbrowser in der Lage, eine Webseite von einem entfernten Webserver abzurufen. Dieser Webserver kann Zugriffsbeschränkungen auferlegen, die die Verfügbarkeit eines privaten Netzwerks, beispielsweise eines Unternehmensintranets, einschränken. Der Webbrowser verwendet das Hypertext Transfer Protocol (HTTP), um diese Anfragen an den Webserver zu initiieren.

Eine statische Webseite wird genau so übertragen, wie sie im Dateisystem des Webservers vorhanden ist. Umgekehrt wird eine dynamische Webseite von einer Webanwendung erstellt, die normalerweise von serverseitiger Software unterstützt wird. Dynamische Webseiten werden in Szenarien eingesetzt, in denen einzelne Benutzer unterschiedliche Informationen benötigen, beispielsweise auf Bank-Websites oder webbasierten E-Mail-Plattformen.

Statische Seite

Eine statische Webseite (gelegentlich auch als flache Seite/stationäre Seite bezeichnet) ist eine Webseite, die dem Benutzer genau in ihrer gespeicherten Form präsentiert wird und sich von dynamischen Webseiten unterscheidet, die von einer Webanwendung erstellt werden.

Folglich präsentiert eine statische Webseite allen Benutzern in verschiedenen Kontexten identische Informationen, abhängig von der aktuellen Fähigkeit des Webservers, den Inhaltstyp oder die Sprache des Dokuments auszuhandeln, sofern solche Versionen vorhanden sind und die Der Server ist ordnungsgemäß konfiguriert.

Dynamische Seiten

Eine serverseitige dynamische Webseite zeichnet sich dadurch aus, dass ihr Aufbau von einem Anwendungsserver verwaltet wird, der serverseitige Skripte ausführt. Beim serverseitigen Scripting bestimmen bestimmte Parameter den Assemblierungsprozess für jede neue Webseite und umfassen die Konfiguration zusätzlicher clientseitiger Verarbeitung.

Eine clientseitige dynamische Webseite wird im Browser durch JavaScript-Ausführung verarbeitet. JavaScript-Programme können über das Document Object Model (DOM) mit dem Dokument interagieren, um den Status der Seite abzufragen und zu ändern. Diese clientseitigen Techniken können das DOM anschließend dynamisch aktualisieren oder ändern.

Eine dynamische Webseite kann von einem Benutzer oder einem Computerprogramm neu geladen werden, um ihren variablen Inhalt zu ändern. Die aktualisierten Daten können vom Server oder aus Änderungen am Document Object Model (DOM) der Seite stammen. Während sich dieser Vorgang möglicherweise auf den Browserverlauf auswirkt oder eine speicherbare Version für die Navigation generiert, wird ein mit Ajax-Technologien implementiertes dynamisches Webseiten-Update weder einen navigierbaren Verlaufseintrag erstellen noch den vorwärts gerichteten Browserverlauf der aktuellen Seite abschneiden. Durch Ajax erlebt der Endbenutzer eine dynamische Seite, die als einzelne Einheit im Webbrowser verwaltet wird, auch wenn der tatsächlich auf dieser Seite angezeigte Inhalt schwanken kann. Die Ajax-Engine befindet sich ausschließlich im Browser und fordert für ihren Client bestimmte DOM-Segmente, das DOM, von einem Anwendungsserver an.

Dynamic HTML oder DHTML diente als übergreifender Begriff für die Technologien und Methoden, die zum Erstellen nicht statischer Webseiten verwendet werden; Allerdings hat seine Verwendung seit der weit verbreiteten Einführung von AJAX, einem Begriff, der mittlerweile ebenfalls nur noch selten verwendet wird, erheblich abgenommen. Das dynamische Weberlebnis innerhalb eines Browsers wird durch clientseitiges Skripting, serverseitiges Skripting oder eine Kombination davon erleichtert.

JavaScript, eine Skriptsprache, wurde 1995 von Brendan Eich bei Netscape für die Integration in Webseiten entwickelt. Seine standardisierte Iteration ist ECMAScript. Um die Interaktivität von Webseiten zu verbessern, nutzen bestimmte Webanwendungen JavaScript-Methoden, einschließlich Ajax (Asynchronous JavaScript und XML). In die Webseite eingebettete clientseitige Skripte können zusätzliche HTTP-Anfragen an den Server initiieren, die durch Benutzerinteraktionen wie Mausbewegungen oder Klicks oder durch vorgegebene Zeitintervalle ausgelöst werden. Serverantworten ändern anschließend die vorhandene Seite, sodass die Seite nicht bei jeder Interaktion vollständig neu geladen werden muss und der Server daher nur präzise, ​​inkrementelle Daten übertragen muss. Die gleichzeitige Verarbeitung mehrerer Ajax-Anfragen ist möglich, sodass Benutzer während des Datenabrufs weiterhin mit der Seite interagieren können. Darüber hinaus können Webseiten den Server regelmäßig abfragen, um die Verfügbarkeit aktualisierter Inhalte festzustellen.

Website

Eine Website stellt eine Ansammlung miteinander verbundener Webressourcen dar, die Webseiten und Multimediainhalte umfasst, im Allgemeinen unter einem einzigen Domainnamen vereint und auf einem oder mehreren Webservern gehostet wird.

Der Zugriff auf eine Website kann über ein öffentliches Internet Protocol (IP)-Netzwerk wie das Internet oder ein privates lokales Netzwerk (LAN) erfolgen, indem ein Uniform Resource Locator (URL) verwendet wird, der die Ressource eindeutig identifiziert.

Websites erfüllen verschiedene Funktionen und werden in verschiedenen Funktionen eingesetzt, einschließlich persönlicher, geschäftlicher, staatlicher und organisatorischer Plattformen. Diese Plattformen sind im Allgemeinen für bestimmte Themen oder Ziele konzipiert und reichen von Unterhaltung und sozialen Netzwerken bis hin zur Verbreitung von Nachrichten und Bildungsinhalten. Die Gesamtheit aller öffentlich zugänglichen Websites bildet das World Wide Web, während private Websites, wie sie beispielsweise von Unternehmen für die interne Nutzung durch Mitarbeiter betrieben werden, im Allgemeinen in einem Intranet betrieben werden.

Webseiten, die als grundlegende Bestandteile von Websites dienen, sind Dokumente, die hauptsächlich in Klartext strukturiert sind und durch Formatierungsanweisungen aus der Hypertext Markup Language (HTML) oder der Extensible Hypertext Markup Language (XHTML) ergänzt werden. Diese Seiten können über entsprechende Markup-Anker Inhalte von externen Websites integrieren. Der Zugriff und die Übertragung von Webseiten erfolgen über das Hypertext Transfer Protocol (HTTP), das optional eine Verschlüsselung (HTTP Secure, HTTPS) nutzen kann, um die Sicherheit und den Datenschutz der Benutzer zu gewährleisten. Die Clientanwendung des Benutzers, normalerweise ein Webbrowser, interpretiert den Seiteninhalt auf einem Terminal basierend auf seinen HTML-Markup-Anweisungen und zeigt ihn an.

Hyperlinks erleichtern die Übermittlung der Site-Struktur und steuern die Benutzernavigation, häufig beginnend mit einer Homepage, die als Verzeichnis für den Inhalt der Site dient. Bestimmte Websites erfordern für den Zugriff auf Inhalte eine Benutzerregistrierung oder ein Abonnement. Zu solchen abonnementbasierten Plattformen gehören Unternehmensportale, Nachrichtenaggregatoren, Repositorien für wissenschaftliche Zeitschriften, Spieleplattformen, File-Sharing-Dienste, Online-Foren, Webmail-Schnittstellen, soziale Netzwerke und Plattformen, die unter anderem Marktpreisnotierungen in Echtzeit anbieten. Endbenutzer können über ein Spektrum von Geräten auf diese digitalen Ressourcen zugreifen, darunter Desktop- und Laptop-Computer, Tablet-Computer, Smartphones und Smart-TVs.

Browser

Ein Webbrowser, häufig als Browser abgekürzt, fungiert als Software-Benutzeragent, der zum Abrufen von Informationen aus dem World Wide Web entwickelt wurde. Um eine Verbindung mit dem Server einer Website herzustellen und deren Inhalt darzustellen, muss ein Benutzer eine Webbrowser-Anwendung verwenden. Diese Anwendung ist für das Herunterladen, Formatieren und Präsentieren von Webseiten auf dem Computergerät des Benutzers verantwortlich.

Webbrowser ermöglichen Benutzern nicht nur das Auffinden, Anzeigen und Navigieren von Webseiten, sondern enthalten in der Regel auch Funktionen wie Lesezeichenverwaltung, Aufbewahrung des Browserverlaufs, Cookie-Verwaltung und Homepage-Konfiguration. Sie bieten möglicherweise auch Mechanismen zum sicheren Speichern von Anmeldeinformationen für verschiedene Websites.

Bekannte Webbrowser sind Chrome, Safari, Edge, Samsung Internet und Firefox.

Server

Ein Webserver bezieht sich entweder auf Serversoftware oder auf Hardware, die speziell für die Ausführung solcher Software konfiguriert ist und in der Lage ist, Clientanfragen aus dem World Wide Web zu erfüllen. Normalerweise kann ein einzelner Webserver mehrere Websites hosten. Es verarbeitet eingehende Netzwerkanfragen mithilfe von HTTP und verschiedenen zugehörigen Protokollen.

Die grundlegende Rolle eines Webservers besteht darin, Webseiten zu speichern, zu verarbeiten und an Clientgeräte zu übertragen. Diese Client-Server-Interaktion wird durch das Hypertext Transfer Protocol (HTTP) erleichtert. Der bereitgestellte Inhalt besteht in der Regel aus HTML-Dokumenten, die neben Bildern, Stylesheets und Skripten auch Textinformationen enthalten können.

Die Kommunikation wird von einem Benutzeragenten wie einem Webbrowser oder Webcrawler initiiert, der eine HTTP-Anfrage für eine bestimmte Ressource sendet. Der Server stellt dann entweder den angeforderten Inhalt bereit oder gibt eine Fehlermeldung zurück, wenn die Anfrage nicht erfüllt werden kann. Während es sich bei Ressourcen häufig um physische Dateien handelt, die sich im Sekundärspeicher des Servers befinden, kann ihre Beschaffenheit je nach spezifischer Implementierung des Webservers variieren.

Obwohl die Bereitstellung von Inhalten die primäre Funktion darstellt, unterstützt eine umfassende HTTP-Implementierung auch den Empfang von Inhalten von Clients. Diese Funktion wird für Aktionen wie das Senden von Webformularen und das Hochladen von Dateien verwendet.

Zahlreiche Allzweck-Webserver verfügen über Skriptfunktionen und nutzen häufig Technologien wie Active Server Pages (ASP), PHP (Hypertext Preprocessor) oder andere Skriptsprachen. Dadurch kann das Verhalten des Servers in externen Skriptdateien definiert werden, ohne die Kernserversoftware zu ändern. Diese Funktionalität wird üblicherweise für die dynamische Generierung von HTML-Dokumenten verwendet, im Gegensatz zur Bereitstellung statischer Dateien. Die dynamische Generierung wird hauptsächlich für Datenbankinteraktionen verwendet, beispielsweise zum Abrufen oder Ändern von Daten. Umgekehrt bieten statische Dokumente eine höhere Geschwindigkeit und Cache-Fähigkeit, verfügen jedoch nicht über die Kapazität zur dynamischen Bereitstellung von Inhalten.

Webserver werden häufig in Geräte wie Drucker, Router und Webcams integriert, wo sie normalerweise nur ein lokales Netzwerk bedienen. In solchen Kontexten kann der eingebettete Webserver Teil eines Systems zur Überwachung oder Verwaltung des Geräts sein. Durch diese Integration entfällt häufig die Installation zusätzlicher clientseitiger Software, da für die Interaktion lediglich ein Webbrowser (heute im Lieferumfang der meisten Betriebssysteme enthalten) erforderlich ist.

Optisches Netzwerk

Optische Netzwerke stellen eine fortschrittliche Infrastruktur dar, die Glasfasern für die Datenübertragung über große Entfernungen nutzt und so Nationen, urbane Zentren und einzelne Wohnorte miteinander verbindet. Diese Technologie basiert auf optischen Mikrosystemen, darunter abstimmbare Laser, Filter, Dämpfungsglieder, Schalter und wellenlängenselektive Schalter, um die Netzwerkverwaltung und den Netzwerkbetrieb zu erleichtern.

Mit der umfassenden weltweiten Verbreitung von Glasfasern bis zum Ende des 20. Jahrhunderts wurde die grundlegende Infrastruktur für das heutige Internet geschaffen. Diese Informationsautobahn ist stark von optischen Netzwerken abhängig, einer Methode, die Informationen über verschiedene Telekommunikationsnetze überträgt, indem sie Nachrichten in Licht kodiert.

Das Advanced Research Projects Agency Network (ARPANET), das 1969 gemeinsam von Universitäten und Forschern entwickelt wurde, war ein früher Vorläufer des Internets. Der Zugang zu ARPANET war auf die Forschungsgemeinschaft beschränkt. Anschließend gründete die National Science Foundation 1985 das National Science Foundation Network (NSFNET), ein Programm, das Forschern Zugang zu Supercomputing-Ressourcen gewähren soll.

Der eingeschränkte öffentliche Zugang zum Internet führte zu einer erheblichen Nachfrage sowohl bei Verbrauchern als auch bei Unternehmen nach der Privatisierung des Netzwerks. Infolgedessen erließen die Vereinigten Staaten 1993 den National Information Infrastructure Act, der die National Science Foundation dazu verpflichtete, die Kontrolle über ihre optische Infrastruktur an kommerzielle Unternehmen zu übertragen.

Die Privatisierung des Internets und die öffentliche Freigabe des World Wide Web im Jahr 1993 steigerten die Nachfrage nach verbesserten Internetfunktionen erheblich. Dieser Anstieg veranlasste Entwickler dazu, Innovationen zu verfolgen, die darauf abzielten, den mit der Installation neuer Glasfaserkabel verbundenen Zeit- und Kostenaufwand zu minimieren und gleichzeitig die Datenübertragungskapazität einzelner Fasern zu erhöhen, um so den steigenden öffentlichen Anforderungen gerecht zu werden.

Im Jahr 1994 führte die Abteilung für optische Komponenten von Pirelli S.p.A. ein Wellenlängenmultiplexsystem (WDM) ein, um dem wachsenden Bedarf an größerer Datenübertragungskapazität gerecht zu werden. Diese Vierkanal-WDM-Technologie ermöglichte die gleichzeitige Übertragung größerer Informationsmengen über eine einzige Glasfaser und steigerte dadurch den Netzwerkdurchsatz erheblich.

Während Pirelli WDM-Systeme entwickelte, leistete die Ciena Corporation (Ciena) auch Pionierarbeit bei proprietärer Technologie für eine verbesserte Datenübertragungseffizienz. Ciena wurde 1992 vom optischen Netzwerkingenieur David Huber und dem Unternehmer Kevin Kimberlin gegründet. Das Unternehmen nutzte die von Gordon Gould und William Culver von Optelecom, Inc. entwickelte Lasertechnologie und konzentrierte sich auf den Einsatz optischer Verstärker für die lichtbasierte Datenübertragung. Unter der Leitung von CEO Pat Nettles entwickelte Ciena einen zweistufigen optischen Verstärker speziell für DWDM (Dense Wavelength Division Multiplexing). Diese Innovation wurde 1997 patentiert und anschließend 1996 im Sprint-Netzwerk implementiert.

Cookie

Ein HTTP-Cookie, auch bekannt unter Begriffen wie Web-Cookie, Internet-Cookie, Browser-Cookie oder einfach Cookie, stellt ein kleines Datenfragment dar, das von einer Website übertragen und anschließend während der Browsersitzungen von seinem Webbrowser auf dem Computer eines Benutzers gespeichert wird. Diese Cookies wurden als zuverlässige Methode für Websites konzipiert, um zustandsbehaftete Informationen zu speichern, z. B. Artikel, die in einen Online-Einkaufswagen gelegt wurden, oder um Benutzer-Browsing-Aktivitäten, einschließlich Schaltflächenklicks, Anmeldestatus und zuvor besuchte Seiten, zu protokollieren. Darüber hinaus erleichtern sie das Abrufen beliebiger Daten, die der Benutzer zuvor in Formularfelder eingegeben hat, darunter Details wie Namen, Adressen, Passwörter und Kreditkartennummern.

Cookies erfüllen wichtige Funktionen in modernen Webumgebungen. Entscheidend ist, dass Authentifizierungscookies den vorherrschenden Mechanismus darstellen, der von Webservern verwendet wird, um den Anmeldestatus eines Benutzers und das zugehörige Konto zu ermitteln. Ohne diesen Mechanismus wäre eine Website nicht in der Lage zu bestimmen, ob vertrauliche Inhalte bereitgestellt werden sollen oder ob eine Benutzerauthentifizierung per Login erforderlich ist. Die Robustheit der Sicherheit eines Authentifizierungscookies hängt in der Regel vom Sicherheitsstatus sowohl der ausstellenden Website als auch des Webbrowsers des Benutzers sowie vom Verschlüsselungsstatus der Cookie-Daten ab. Potenzielle Sicherheitslücken könnten den unbefugten Zugriff auf die Daten eines Cookies durch böswillige Akteure ermöglichen und so die Erfassung von Benutzerinformationen oder den unbefugten Zugriff (unter Verwendung der Anmeldeinformationen des Benutzers) auf die zugehörige Website erleichtern.

Tracking-Cookies, insbesondere solche, die von Dritten stammen, werden häufig verwendet, um umfangreiche Aufzeichnungen über den Browserverlauf einzelner Personen zu erstellen. Diese Praxis hat zu erheblichen Datenschutzbedenken geführt und europäische und US-amerikanische Gesetzgeber dazu veranlasst, im Jahr 2011 Regulierungsmaßnahmen umzusetzen. Gemäß der europäischen Gesetzgebung sind Websites, die sich an Mitgliedstaaten der Europäischen Union richten, dazu verpflichtet, eine „informierte Einwilligung“ der Benutzer einzuholen, bevor sie nicht unbedingt erforderliche Cookies auf ihren Geräten speichern.

Jann Horn, ein Forscher bei Google Project Zero, verfügt über detaillierte Mechanismen, mit denen Cookies von Zwischenhändlern wie WLAN-Hotspot-Anbietern abgefangen und gelesen werden können. In solchen Fällen empfiehlt Horn, den privaten Browsermodus zu verwenden, der in Google Chrome üblicherweise als Inkognito-Modus bezeichnet wird.

Suchmaschine

Eine Websuchmaschine, auch bekannt als Internetsuchmaschine, ist ein Softwaresystem, das für die Ausführung von Websuchvorgängen (Internetsuche) entwickelt wurde und dabei das World Wide Web systematisch nach spezifischen Informationen durchsucht, die durch die Suchanfrage eines Benutzers definiert werden. Die Ergebnisse dieser Suchvorgänge werden normalerweise als Liste angezeigt, die üblicherweise als Suchmaschinen-Ergebnisseiten (SERPs) bezeichnet wird. Diese Informationen können eine Vielzahl von Inhalten umfassen, darunter Webseiten, Bilder, Videos, Infografiken, Artikel, Forschungsarbeiten und verschiedene andere Dateiformate. Bestimmte Suchmaschinen extrahieren zusätzlich Daten aus Datenbanken oder offenen Verzeichnissen. Im Gegensatz zu Webverzeichnissen, die ausschließlich auf menschlicher Pflege basieren, speichern Suchmaschinen Informationen in Echtzeit durch die Arbeit von Algorithmen auf Webcrawlern. Internetinhalte, auf die herkömmliche Websuchmaschinen keinen Zugriff haben, werden allgemein als Deep Web kategorisiert.

Die erste Suchmaschine, Archie, wurde 1990 eingeführt. Ursprünglich diente diese Technologie als Index für File Transfer Protocol (FTP)-Sites, ein Protokoll, das Dateiübertragungen zwischen Client- und Servernetzwerken erleichtert. Dieses grundlegende Suchdienstprogramm wurde später durch ausgefeiltere Suchmaschinen ersetzt, insbesondere Yahoo! im Jahr 1995 und Google im Jahr 1998.

Deep Web

Das Deep Web, auch bekannt als unsichtbares Web oder verstecktes Web, umfasst Abschnitte des World Wide Web, die von herkömmlichen Suchmaschinen nicht indiziert werden. Im Gegensatz dazu bezieht sich das Surface Web auf Inhalte, die für jeden Internetnutzer leicht zugänglich sind. Der Informatiker Michael K. Bergman ist für die Einführung des Begriffs Deep Web im Jahr 2001 bekannt, zunächst als Suchindizierungsdeskriptor.

Deep-Web-Inhalte sind normalerweise hinter HTTP-Formularen verborgen und ermöglichen zahlreiche gängige Anwendungen, darunter Webmail, Online-Banking und verschiedene Paywall-Dienste. Beispiele für solche Dienste sind Video-on-Demand-Plattformen, bestimmte Online-Magazine und digitale Zeitungen.

Der Zugriff auf Deep-Web-Inhalte ist über eine direkte URL oder IP-Adresse möglich, wofür häufig ein Passwort oder andere Sicherheitsanmeldeinformationen außerhalb der Benutzeroberfläche einer öffentlichen Website erforderlich sind.

Caching

Ein Web-Cache fungiert als Server, der sich entweder im öffentlichen Internet oder innerhalb eines Organisationsnetzwerks befindet und die zuletzt aufgerufenen Webseiten speichert. Dieser Mechanismus zielt darauf ab, die Antwortzeiten der Benutzer zu verbessern, wenn innerhalb eines bestimmten Zeitraums anschließend identische Inhalte angefordert werden. Die meisten Webbrowser verfügen über einen Browser-Cache, der kürzlich erfasste Daten auf einem lokalen Gerät speichert. Browser-initiierte HTTP-Anfragen können gezielt nach Daten fragen, die seit dem letzten Zugriff geändert wurden. Webseiten und die damit verbundenen Ressourcen enthalten häufig Ablaufmetadaten, um das Caching zu regulieren und so sensible Informationen zu schützen (z. B. beim Online-Banking) oder häufig aktualisierte Plattformen (z. B. Nachrichtenagenturen) zu optimieren. Selbst hochdynamische Websites können dazu führen, dass grundlegende Ressourcen selten aktualisiert werden. Website-Entwickler konsolidieren häufig Ressourcen wie CSS und JavaScript in einer begrenzten Anzahl von Dateien für die gesamte Website, um die Caching-Effizienz zu optimieren. Darüber hinaus speichern Unternehmens-Firewalls häufig von einem Benutzer angeforderte Webressourcen zum gemeinsamen Nutzen mehrerer Benutzer zwischen. Bestimmte Suchmaschinen verwalten auch zwischengespeicherte Versionen häufig besuchter Websites.

Sicherheit

Das World Wide Web hat sich zu einer wichtigen Plattform für böswillige Akteure zur Verbreitung von Malware und zur Begehung verschiedener Cyberkriminalität wie Identitätsdiebstahl, Betrug, Spionage und Informationsbeschaffung entwickelt. Webbasierte Sicherheitslücken gehen mittlerweile über die herkömmlichen Sicherheitsprobleme von Computern hinaus. Die Analyse von Google zeigt, dass etwa jede zehnte Webseite schädlichen Code enthalten könnte. Die meisten webbasierten Angriffe erfolgen auf legitimen Websites, wobei Sophos berichtet, dass die meisten in den USA, China und Russland gehostet werden. SQL-Injection-Angriffe gegen Websites stellen die häufigste Malware-Bedrohung dar. Durch HTML und URIs wurde das Web nach der Einführung von JavaScript anfällig für Angriffe wie Cross-Site-Scripting (XSS), eine Schwachstelle, die durch Web 2.0- und Ajax-Designparadigmen, die der Verwendung von Skripten Priorität einräumen, noch verstärkt wird. Eine Bewertung aus dem Jahr 2007 ergab, dass 70 % aller Websites anfällig für XSS-Angriffe sind, die auf ihre Benutzer abzielen. Phishing stellt eine weitere allgegenwärtige Bedrohung für das Internet dar. Im Februar 2013 schätzte RSA, die Sicherheitsabteilung von EMC, die weltweiten Verluste durch Phishing im Jahr 2012 auf 1,5 Milliarden US-Dollar. Zu den bemerkenswerten Phishing-Techniken gehören Covert Redirect und Open Redirect.

Es wurden verschiedene Lösungen vorgeschlagen, um diese Sicherheitsherausforderungen anzugehen. Große Sicherheitsfirmen wie McAfee entwickeln Governance- und Compliance-Suites, um die Vorschriften nach dem 11. September einzuhalten. Unternehmen wie Finjan Holdings plädieren für eine aktive Echtzeitprüfung des Programmcodes und aller Inhalte, unabhängig von ihrer Herkunft. Einige Perspektiven deuten darauf hin, dass Unternehmen Web-Sicherheit als strategische Geschäftsmöglichkeit und nicht nur als Kostenstelle betrachten sollten. Umgekehrt schlagen andere die Implementierung einer „allgegenwärtigen, ständig aktiven digitalen Rechteverwaltung“ innerhalb der Infrastruktur vor, um die zahlreichen Einheiten zu ersetzen, die derzeit Daten und Netzwerke sichern. Jonathan Zittrain hat postuliert, dass die geteilte Verantwortung der Benutzer für die Computersicherheit erheblich vorteilhafter ist als die Einführung strenger Kontrollen im Internet.

Datenschutz

Wenn ein Client eine Webseite anfordert, kann der Server die IP-Adresse der Anfrage ermitteln, die Webserver normalerweise in einer Protokolldatei aufzeichnen. Darüber hinaus führen die meisten Webbrowser, sofern nicht anders konfiguriert, einen sichtbaren Verlauf der angeforderten Seiten und speichern Inhalte oft lokal zwischen. Ohne HTTPS-Verschlüsselung durchqueren Webanfragen und -antworten das Internet im Klartext, wodurch sie anfällig für die Anzeige, Aufzeichnung und Zwischenspeicherung durch zwischengeschaltete Systeme sind. Der Einsatz eines virtuellen privaten Netzwerks (VPN) bietet eine Alternative zum Verbergen persönlich identifizierbarer Informationen, da ein VPN den Datenverkehr zwischen dem Client und seinem Server verschlüsselt, wodurch die ursprüngliche IP-Adresse maskiert und die Wahrscheinlichkeit einer Benutzeridentifizierung verringert wird.

Wenn Benutzer personenbezogene Daten wie ihren Namen, ihre Adresse oder ihre E-Mail-Adresse auf einer Webseite angeben, können webbasierte Unternehmen den aktuellen Webverkehr mit dieser bestimmten Person verknüpfen. Durch die Verwendung von HTTP-Cookies, der Authentifizierung mit Benutzername und Passwort oder anderen Tracking-Methoden können Websites vergangene und zukünftige Besuche mit den bereitgestellten identifizierbaren Daten in Beziehung setzen. Dies ermöglicht es Weborganisationen, umfassende Profile ihrer Benutzer zu erstellen, die möglicherweise Details zu Freizeitaktivitäten, Einkaufspräferenzen, beruflichen Zugehörigkeiten und anderen demografischen Merkmalen umfassen. Solche Profile sind für Vermarkter, Werbetreibende und andere Interessengruppen von großem Wert. Vorbehaltlich der Allgemeinen Geschäftsbedingungen der Website und der geltenden lokalen Vorschriften können aus diesen Profilen abgeleitete Daten ohne ausdrückliche Benachrichtigung des Benutzers verkauft, weitergegeben oder an Drittorganisationen übertragen werden. Bei vielen Menschen kann sich dies in unerwünschten E-Mails oder äußerst relevanter Werbung auf nachfolgenden Webseiten äußern. Für andere könnte die Beschäftigung mit Nischeninteressen jedoch zu einem überwältigenden Zustrom unerwünschter gezielter Werbung führen. Darüber hinaus können Strafverfolgungs-, Terrorismusbekämpfungs- und Spionageagenturen webbasierte Interessen oder Neigungen nutzen, um Einzelpersonen zu identifizieren, ins Visier zu nehmen und zu überwachen.

Soziale Netzwerkplattformen ermutigen Benutzer normalerweise dazu, ihre authentischen Namen, Interessen und Standorte anstelle von Pseudonymen zu verwenden, da sie davon ausgehen, dass dies das Engagement der Benutzer erhöht. Umgekehrt können hochgeladene Fotos oder ehrliche Aussagen mit einer Person in Verbindung gebracht werden, was möglicherweise dazu führt, dass man die Enthüllung bereut. Arbeitgeber, Bildungseinrichtungen, Eltern und andere Familienmitglieder können durch Elemente in Social-Networking-Profilen, einschließlich Textbeiträgen oder digitalen Bildern, beeinflusst werden, auch wenn das Poster nicht an diese Zielgruppen gedacht war. Darüber hinaus können Online-Belästiger persönliche Informationen ausnutzen, um Benutzer gezielt anzusprechen oder zu stalken. Während moderne Social-Networking-Sites eine detaillierte Kontrolle über die Datenschutzeinstellungen für einzelne Beiträge bieten, können diese Kontrollen kompliziert und schwierig zu finden oder zu nutzen sein, insbesondere für unerfahrene Benutzer. Das Posten von Fotos und Videos stellt besondere Herausforderungen dar, da diese Medien das Gesicht einer Person mit einem Online-Profil in Verbindung bringen können. Fortgeschrittene und neue Gesichtserkennungstechnologien könnten dann die Korrelation dieses Gesichts mit anderen zuvor anonymen Bildern, Ereignissen und Situationen ermöglichen, die an anderer Stelle aufgenommen wurden. Angesichts der Verbreitung von Bild-Caching, -Spiegelung und -Kopieren bleibt die vollständige Entfernung eines Bildes aus dem World Wide Web eine erhebliche Schwierigkeit.

Standards

Webstandards umfassen zahlreiche miteinander verbundene Standards und Spezifikationen, von denen sich einige auf das breitere Internet und nicht ausschließlich auf das World Wide Web beziehen. Auch wenn diese Standards nicht primär webzentriert sind, üben sie direkten oder indirekten Einfluss auf die Entwicklung und Verwaltung von Websites und Webdiensten aus. Zu den wichtigsten Überlegungen gehören die Interoperabilität, Zugänglichkeit und Benutzerfreundlichkeit von Webseiten und ganzen Websites.

In einem breiteren Kontext umfassen Webstandards die folgenden Elemente:

Webstandards stellen eine sich weiterentwickelnde Sammlung endgültiger technischer Spezifikationen für Webtechnologien dar und sind keine statischen Regelsätze. Diese Standards werden von speziellen Standardisierungsorganisationen formuliert, die sich aus unterschiedlichen und oft konkurrierenden Stakeholdern zusammensetzen, die mit der Standardisierung beauftragt sind, und es sich nicht um proprietäre Technologien handelt, die von einem einzelnen Unternehmen oder Unternehmen entwickelt und einseitig als Standards deklariert werden. Daher ist es zwingend erforderlich, zwischen Spezifikationen, die sich derzeit in der Entwicklung befinden, und solchen zu unterscheiden, die einen endgültigen Entwicklungsstatus erreicht haben, beispielsweise den höchsten Reifegrad für W3C-Spezifikationen.

Barrierefreiheit

Um Menschen mit Behinderungen entgegenzukommen, ermöglichen verschiedene Methoden den Webzugriff über alternative Medien und Formate. Diese Behinderungen umfassen Seh-, Hör-, Körper-, Sprach-, kognitive oder neurologische Beeinträchtigungen oder Kombinationen davon. Darüber hinaus kommen die Barrierefreiheitsfunktionen Personen mit vorübergehenden Erkrankungen wie gebrochenen Gliedmaßen und älteren Benutzern zugute, bei denen sich ihre Fähigkeiten verändern. Angesichts der doppelten Rolle des Webs bei der Informationsverbreitung und der gesellschaftlichen Interaktion unterstreicht das World Wide Web Consortium die entscheidende Bedeutung der Barrierefreiheit im Internet, um gleichberechtigten Zugang und gleichberechtigte Chancen für Menschen mit Behinderungen zu gewährleisten. Tim Berners-Lee sagte bekanntlich: „Die Kraft des Webs liegt in seiner Universalität. Der Zugang für alle, unabhängig von ihrer Behinderung, ist ein wesentlicher Aspekt.“ Folglich schreiben zahlreiche Nationen die Barrierefreiheit im Internet als gesetzliche Anforderung für Websites vor. Gemeinsame internationale Bemühungen im Rahmen der W3C Web Accessibility Initiative haben unkomplizierte Richtlinien hervorgebracht, die es sowohl Autoren von Webinhalten als auch Softwareentwicklern ermöglichen, eine Webumgebung zu schaffen, die für alle zugänglich ist, unabhängig davon, ob sie auf unterstützende Technologien angewiesen sind.

Internationalisierung

Die W3C-Internationalisierungsaktivität stellt die Kompatibilität der Webtechnologie über verschiedene Sprachen, Skripte und Kulturen hinweg sicher. Ab etwa 2004 oder 2005 gewann Unicode zunehmend an Bedeutung und übertraf schließlich sowohl den ASCII- als auch den westeuropäischen Zeichensatz und wurde im Dezember 2007 zur am weitesten verbreiteten Zeichenkodierung im Web. Ursprünglich erlaubte RFC 3986 die Ressourcenidentifizierung über URIs unter Verwendung einer Teilmenge von US-ASCII-Zeichen. RFC 3987 erweiterte diese Funktion jedoch und erlaubte jedes Zeichen aus dem universellen Zeichensatz, wodurch Ressourcen von IRIs in jeder Sprache identifiziert werden können.

Referenzen

Referenzen

Berners-Lee, Tim; Bray, Tim; Connolly, Dan; Baumwolle, Paul; Fielding, Roy; Jeckle, Mario; Lilley, Chris; Mendelsohn, Noah; Obstgarten, David; Walsh, Norman; Williams, Stuart (15. Dezember 2004). „Architektur des World Wide Web, Band Eins“. W3C. Version 20041215.

Çavkanî: Arşîva TORÎma Akademî

Über diesen Artikel

Was ist Weltweites Netz?

Ein kurzer Überblick über Weltweites Netz, zentrale Merkmale, Anwendungen und verwandte Themen.

Themen-Tags

Was ist Weltweites Netz Weltweites Netz erklärt Weltweites Netz Grundlagen Technologie-Artikel Technologie auf Kurdisch Verwandte Themen

Häufige Suchen zu diesem Thema

  • Was ist Weltweites Netz?
  • Wofür wird Weltweites Netz verwendet?
  • Warum ist Weltweites Netz wichtig?
  • Welche Themen hängen mit Weltweites Netz zusammen?

Kategoriearchiv

Technologie-Archiv

Tauchen Sie ein in die Welt der Technologie mit unserem umfassenden Archiv. Hier finden Sie detaillierte Artikel und Erklärungen zu grundlegenden Konzepten wie Betriebssystemen und Binärzahlen, bis hin zu modernen

Startseite Zurück zu Technologie