
Wortherkunft: Der Begriff ‚Internet‘ leitet sich von der Bezeichnung für die Forschungsabteilung ARPA (Advanced Research Project Agency) des US-amerikanischen Verteidigungsministeriums ab, in der das Kommunikationsnetzwerk ARPANET entwickelt wurde. Es ging ins Internet über, als es später vom Militär unabhängig betrieben wurde (Abbate 2000: 113ff.). Die Wortbestandteile ‚Inter‘ (zwischen) und ‚net‘ (Netz) weisen darauf hin, dass es zur Verbindung zwischen einzelnen Computernetzen entworfen wurde.
Definition
Das Internet besteht erstens aus einer Reihe von Vereinbarungen (Protokollen), zweitens der zum Betrieb erforderlichen Hard- und Software, und drittens den Diensten (Anwendungen), die auf dieser Grundlage realisiert werden.
Die Protokolle beschreiben, schichtweise gegliedert, welche Voraussetzungen erfüllt sein müssen, damit die jeweilige Betriebsebene funktionieren kann, und welche Funktionselemente sie auf ihrer Ebene zu welchen Bedingungen den darüber liegenden Protokollebenen anbieten. Die unterste Protokollebene legt fest, wie das Netzwerk elektrotechnisch funktionieren soll, also die Übertragungs-Infrastruktur aus Kabeln oder Funksignalen. Darüber regelt das IP (Internet Protocol), wie Datenpakete gebildet werden und durch Adressierung ihre Bestimmungsorte finden, indem es die darunter liegende Schicht benutzt. Dabei kann die jeweilige Schicht ignorieren, wie und womit die darunter oder darüber liegende ihre Aufgaben erfüllt. Dem IP kann es also gleichgültig sein, ob das Übertragungsnetz mit Kabeln, Funk oder anders realisiert wird, es genügt, die Regeln des Protokolls einzuhalten; ebenso ist es indifferent, welchen Zwecken übergeordneter Ebenen es dient. Das TCP (Transport Control Protocol) legt fest, wie aus dem Strom von ausschwärmenden Paketen verlässliche Kommunikationskanäle aufgebaut werden können, und schließlich beschreibt die Anwendungsschicht, was eigentlich am Ende mit all dem bewirkt werden soll: E-Mail, World Wide Web, → Social Media, → Zeitungs-Apps oder andere Dienste. Die Protokolle beschreiben nur die Funktionsweise ihrer jeweiligen Schicht, nie die technische Ausführung, wodurch das Internet insgesamt ständig technisch aktualisiert werden kann, sich Hard- und Software und sogar die Dienste weiterentwickeln und vermehren können, ohne dass die Protokolle angetastet werden müssen. So wurde es möglich, dass Dienste auf der ursprünglichen Infrastruktur entstehen konnten, an die niemand zu Beginn gedacht hatte, wie etwa der → Online-Journalismus, Internet-Fernsehen, E-Commerce oder jetzt die generative → KI (Warnke 2011: 53ff.).
Das Internet hat das Grundprinzip der Telefonie aufgegeben, das eine direkte Verbindung zwischen den Kommunikationspartnern vorsieht. Es stellt den Datenverkehr auf Pakete um, in die das Kommunikat zerlegt wird. Weil die Adressierung der Datenpakete auf der IP-Ebene einheitlich geregelt ist – in Form der IP-Adresse –, können alle Dienste alle Zieladressen und damit die dadurch adressierten Nutzerinnen und Nutzer individuell erreichen, wodurch das Internet kein → Massenmedium mehr ist, sondern sich zu einem Netzmedium mit individueller Erreichbarkeit aller Netzknoten entwickelt hat. Im IP wird keine Authentifizierung verlangt, weshalb die Teilhabe an Internet-Diensten anonym geschehen kann, wenn nicht zusätzliche spezifische Sicherungsverfahren mit Nutzernamen und Passwörtern eingesetzt werden. Dennoch kann durch Analyse des Datenverkehrs und durch Benutzungsspuren von ans Internet angeschlossenen Computern die Identität von Sendern und Empfängern indirekt erschlossen werden, was ein politisch kontrovers diskutiertes Datenschutz-Problem darstellt (Virtuelles Datenschutzbüro 2025).
Die Netz-Infrastruktur wird durch Vermittlungsrechner (Router) zusammengehalten, die Dienste werden durch Server angeboten, die Konsumentinnen und Konsumenten greifen auf diese durch Client-Rechner zu. Letztere umfassen alle Internet-fähigen Computer, vom PC über Laptop, Tablet, Smartphone, Smart Watches und andere am Körper getragene Geräte und Smart-Home-Komponenten sowie die Informations-Rechner von Fahrzeugen, Industrieanlagen, Einrichtungen im öffentlichen Raum, wobei die Liste solcher Clients beständig anwächst.
Geschichte
Das US-Militär förderte in den 1960er Jahren Projekte, um ein Kommunikationssystem entwickeln zu lassen, das auch unter Bedingungen eines Atomkriegs sicher funktionieren würde. Paul Baran, Mitarbeiter der Rand Corporation, erarbeitete die Prinzipien dazu (Baran 1964: iii). Das US-Militär war auf Ausfallsicherheit aus; so bestand für Baran der Test auch darin zu untersuchen, wie gut unterschiedliche Varianten der Verbindung zwischen Kommunikationspartnern nach einer teilweisen Zerstörung der Stationen oder Leitungen noch zur sicheren Übertragung von Befehlsketten taugten. Je größer die Redundanz der Verbindung, desto mehr Partner bleiben nach einem Angriff erreichbar. Verteilte vernetzte, nicht hierarchische Strukturen, die alternative Übertragungswege erlauben, bieten Schutz gegen Aus- und Zerfall des Übertragungssystems (Warnke 2011: 20f.). Statt durchgeschalteter Verbindungen wie beim Telefonnetz schlug Baran also Datenpakete vor, die über alternative Routen auch mehrfach gesendet und zum Teil verloren gehen können, ohne dass die Verbindung abbricht. Das ARPANET konnte 1969 in Betrieb genommen werden. Seine nicht-hierarchische, diversifizierte Struktur hat bis heute im Internet Bestand.
Zunächst diente das Internet der Steuerung von Rechnern und dem Datenaustausch mit Hilfe von Terminals (Monitoren mit Tastaturen), die über Telefonleitungen mit den Knoten-Rechnern verbunden waren. 1971 kam die E-Mail hinzu, die es zu einem Kommunikationsmedium zwischen Menschen machte (Abbate 2000: 106). Mit der Verbreitung von Personal Computern nahm die Nutzung des Internet rasant zu, und 1990 stellten Tim Berners-Lee, Robert Cailliau und andere das World Wide Web (WWW) vor, womit die Möglichkeit der Multimedialität eröffnet und das Internet endgültig zu einem Medium der Allgemeinheit wurde. Mit Fug und Recht lässt sich diese Entwicklung als ein Medienumbruch, vergleichbar mit der Erfindung des Buchdrucks, bezeichnen.
Das WWW basierte auf der losen Kopplung von Dokumenten, gespeichert auf beliebig vielen örtlich verteilten Servern. Die Technik enthielt keine Elemente für Zugriffsbeschränkungen oder monetäre Abrechnung und setzte sich wohl gerade deswegen durch. Alternativ-Entwürfe wie etwa Xanadu von Ted Nelson (Nelson 1981), schon 1960 begonnen, blieben erfolglos. Hier liegt die Wurzel der Gratisökonomie des Internet (Warnke 2011: 119), die einer der Gründe für die heute schwierige wirtschaftliche Lage der Zeitungen ist. Überhaupt war das Internet in seiner Anfangszeit von libertärem Geist geprägt, Aktivistinnen und Aktivisten lehnten staatliche Eingriffe strikt ab: John Perry Barlow schrieb: „Governments of the Industrial World, you weary giants of flesh and steel, I come from Cyberspace, the new home of Mind. On behalf of the future, I ask you of the past to leave us alone. You are not welcome among us. You have no sovereignty where we gather.“ (Barlow 1996) Die idealistischen Forderungen sollten unerfüllt bleiben: Bekanntermaßen entwickelte sich das Internet dann später doch zu einem Überwachungsmedium.
Gegenwärtiger Zustand
Durch das rasante Anwachsen der Nutzung und die einsetzende Kommerzialisierung des World Wide Web entstand im Interesse der Nutzerinnen und Nutzer die Notwendigkeit, die → Inhalte automatisch zu filtern und zu erschließen: → Suchmaschinen kamen Mitte der 1990er Jahre auf (Abbate 2000: 217; Lewandowski 2025). Sie eröffneten durch die Möglichkeit, individualisierte auf der Suchabfrage beruhende Werbung zu schalten, profitable Geschäftsfelder, betrieben von Firmen mit erheblicher Marktdominanz, z. B. Google. Mit den Social Media-Plattformen wie Facebook (seit 2004), Twitter (2006), Instagram (2010) oder TikTok (2016) kamen Netzmedien zur Blüte, bei denen die → Rezipientinnen und Rezipienten selbst Inhalte bereitstellen: → User-generated content kann ohne technische Fachkenntnisse eingespeist werden. Um von den vorwiegend jüngeren Leserinnen und Lesern überhaupt noch wahrgenommen zu werden, richten auch professionelle journalistische Medien Nutzerkonten auf diesen Netzmedien ein und veröffentlichen dort ihre Inhalte. So ergibt sich in ihnen eine Mischung von ehemals massenmedialen journalistischen → Nachrichten, privaten Äußerungen, werbefinanzierten Beiträgen, Propaganda, → Fake News und letztlich sogar von Bot-Accounts erzeugten Meldungen zweifelhaften Ursprungs, die massenhaft → algorithmisch erzeugt wurden und den Eindruck von privaten Mitteilungen erwecken sollen (BMBF 2022).
Seit 2010 nahm die Entwicklung großer Sprachmodelle (Large Language Models, LLM) Fahrt auf, die mit allen Inhalten, die über das Internet erreichbar sind oder digitalisiert wurden, trainiert werden – unter Nichtbeachtung des → Urheberrechts. Im Jahr 2022 kam ChatGPT auf den Markt und machte LLM massentauglich. Dieser Zustrom von Big Data, verbunden mit massiver Rechenleistung, führte zu Maschinen, die menschliche Sprache in erstaunlicher Perfektion simulieren können (generative KI) (Warnke 2026) und die mittlerweile auch von Suchmaschinen zur Aufbereitung der gesuchten Inhalte des Internet genutzt werden.
Forschungsstand
Geforscht wird auf dem Gebiet der Technik an Fragen der Netzwerk-Infrastruktur, insbesondere an Steigerungen der Bandbreite und der Sicherheit der Übertragungskanäle (Kurose 2021). Das mögliche Aufkommen von Quantencomputern mit besonderen Fähigkeiten zum Brechen kryptographischer Codes macht die Entwicklung von Post-Quantum-Protokollen zur Sicherung von Übertragungskanälen erforderlich, Forschungen zu Verfahren der Quantenkryptographie sollen neue Möglichkeiten der abhörsicheren Übertragung von Nachrichten über das Internet zur Verfügung stellen (Warnke 2024).
Unter dem Begriff ‚Internet der Dinge‘ werden Forschungen zur Vernetzung von Alltags- und am Körper getragenen Gegenständen wie Uhren, Datenbrillen oder Sensoren für Körpermesswerte mit Computern und persönlichen Kommunikationsgeräten zusammengefasst, wie sie mit der Erweiterung des Spektrums internetfähiger Geräte entstanden sind (Sprenger 2015). Damit gehen neue virulente Fragen von Privatheit und Datenschutz einher, weil hoch vertrauliche Daten zum Körperstatus, etwa über den weiblichen Zyklus, unbemerkt zum Gegenstand von Strafverfolgung werden können, wie nach der Abschaffung des Abtreibungsverbotes in den USA. Insgesamt hat sich der Druck auf die Privatheit von Daten weiter verschärft, was besonders in autoritär regierten Staaten problematisch ist: Aus einem libertären ist ein Überwachungs-Medium geworden, was Gegenstand soziologischer Forschung geworden ist (Nassehi 2019).
Ganz im Gegensatz zur Unabhängigkeitserklärung des Internet von John Perry Barlow (Barlow 1996) haben sich nationale Regierungen immer stärker in die Organisation des Internet eingemischt, was Forschungen zum national fragmentierten ‚Splinternet‘ angeregt hat (European Union 2022). Früh eingerichtete Organisationen wie die ICANN (Warnke 2014: 61) erfüllen lediglich rein technisch orientierte Aufgaben, etwa die Vergabe von Internet-Domains, und haben auf die politische Verfassung des Internet keinen Einfluss mehr.
Weitere drängende Forschungsfragen im Zusammenhang mit dem Internet betreffen die langfristigen Folgen generativer KI, die möglicherweise einen neuen → Medienbruch hervorruft (Bieber 2023). Der Kern journalistischer Arbeit, das Schreiben von Texten auf der Grundlage von → Recherche, gerät massiv unter Druck und wird aus Kostengründen zunehmend automatisiert. Da LLM selbständig Texte und andere Medieninhalte überarbeiten, zusammenfassen und auch erzeugen können, stehen sie in Konkurrenz zu Redakteurinnen und Redakteuren. Probleme der Rationalisierung von journalistischer Arbeit, der Umwälzung traditioneller journalistischer Strukturen jenseits des Zeitungssterbens sind schon jetzt virulent. Seitens der → Öffentlichkeit entstehen Zweifel an der Glaubwürdigkeit journalistischer Meldungen, wenn LLM im Spiel sind, denn das Problem der ‚Halluzinationen‘ bei generativer KI ist weiterhin ungelöst (Warnke 2026). Es ist insgesamt offen, wie die Gesellschaften auf die Disruption generativer KI bei der Aushandlung von Wissensordnungen, normativen Erwartungen und demokratischer Legitimität reagieren werden.
Zudem rücken die ökologischen Folgen der rasant gestiegenen Inanspruchnahme des Internet und der generativen KI in den Fokus aktueller Forschung, denn ein erheblicher Teil des weltweiten CO2-Ausstoßes ist inzwischen auf ihre Nutzung zurückzuführen (Istrate 2024).
Literatur
Abbate, Janet: Inventing the Internet. Cambridge, Massachusetts [MIT Press] 2000.
Baran, Paul: On Distributed Communications: I. Introduction to Distributed Communications Networks. https://www.rand.org/content/dam/rand/pubs/research_memoranda/2006/RM3420.pdf [05.01.2026]
Barlow, John Perry: A Declaration of the Independence of Cyberspace. https://www.eff.org/cyberspace-independence 1996. [05.01.2026]
Bieber, Christoph; Jessica Heesen; Anne Lauber-Rönsberg; Christoph Neuberger: Künstliche Intelligenz im Journalismus. Potenziale und Herausforderungen für Medienschaffende. München [Plattform Lernende Systeme] 2023.
BMBF. Forschung gegen Fake News. https://www.bmftr.bund.de/SharedDocs/Publikationen/DE/L/31723_Forschung_gegen_Fake_News.pdf. 2022. [05.01.2026]
European Union (Hrsg.): Splinternets: Addressing the Renewed Debate on Internet Fragmentation. Brüssel 2022.
Kurose, James F.; Keith W. Ross: Computer Networking: A Top-down Approach. London [Pearson] 2021.
Lewandowski, Dirk: Wie Suchmaschinen genutzt werden. In: Ders.: Suchmaschinen verstehen. Berlin, Heidelberg [Springer Berlin Heidelberg] 2015, S.65-87.
Istrate, Robert; Victor Tulus; Robert N. Grass; Laurent Vanbever; Wendelin J Stark; Gonzalo Guillén-Gosálbez: The environmental sustainability of digital content consumption. Nat Commun 15, 1, 2024, S. 3724.
Nassehi, Armin: Muster: Eine Theorie der digitalen Gesellschaft. München [Beck] 2019.
Nelson, Theodor Holm: Literary Machines. Watertown MA [Eastgate Systems] 1981.
Sprenger, Florian; Christoph Engemann. Internet der Dinge: Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt. Bielefeld [transcript Verlag] 2015.
Virtuelles Datenschutzbüro. https://www.datenschutz.de [05.01.2026]
Warnke, Martin: Theorien des Internet. Hamburg [Junius-Verlag] 2011.
Warnke, Martin: Theorie des Quantum Computings. In: Handbuch Medientheorien im 21. Jahrhundert. Wiesbaden [Springer Fachmedien Wiesbaden] 2024, S. 1-20.
Warnke, Martin: Large Language Kabbala. Berlin [Matthes & Seitz] 2026.
Zuboff, Shoshana: Das Zeitalter des Überwachungskapitalismus. Weinheim [Campus Verlag] 2018.


