Springe direkt zu Inhalt

Web 3.0 – die Dimension der Zukunft

Die Datenmenge im Internet wächst rasant. Der Nutzer soll es bald leichter haben, genau das zu finden, was er braucht

Von Robert Tolksdorf

Auf die Zukunft der Internetwirtschaft haben bis vor Kurzem nur wenige gewettet. Zu tief saß die Erinnerung an das Platzen der ersten „Internet-Blase“ im Jahr 2000. Schuld waren damals unausgereifte Geschäftsmodelle und die falsche Annahme völlig neuer ökonomischer Regeln für die Internetwirtschaft. Technologisch bot das Web aber schon eine sehr gute Basis für Anwendungen. Grundlegende Austauschformate waren standardisiert und Webbrowser schnell und multimedial. Seither hat sich das Web auch ohne New-Economy-Getöse stetig weiterentwickelt.

Vor zwei Jahren prägte der US-amerikanische Verleger Tim O’Reilly für neue Internetanwendungen und Geschäftsmodelle den Begriff „Web 2.0“. Er versteht darunter Plattformen, die Dienste realisieren. Es geht nicht mehr um den Verkauf von Web-Software, sondern um die Anwendungen, die damit realisiert werden. So verkauft Google keine Suchmaschinen – Google erbringt täglich milliardenfach einen Suchdienst.

Weiterhin dominiert im Web 2.0 die sogenannte Architektur der Teilhabe. Dabei können Nutzer den Gegenstand der Dienste verändern. Ein Beispiel dafür ist die Videoplattform Youtube.com. Technologisch bietet sie eine Einstellmöglichkeit für Videodateien und eine Komponente zum Einbinden der Filme in Webseiten. Die Videos stammen von den Nutzern. Bereits ein Jahr nach der Gründung wurde Youtube 2006 von Google für 1,65 Milliarden US-Dollar gekauft.

Dieses Beispiel verdeutlicht die Wertsteigerung der Plattform durch nutzergetragene Inhalte. „Data is the next Intel inside“, formuliert O’Reilly dazu. Und es sind die Nutzer, die die Daten den Betreibern anliefern sollen. Man ahnt, dass Nutzungsbedingungen interessante Feinheiten zu den Rechten an den Daten enthalten. Die Bild-Zeitung mit ihren „Leserreportern“ macht es vor: Hilfs-Paparazzi können ihre Digitalfotos in einer Plattform einstellen. Damit geben sie aber nach den dortigen Nutzungsbedingungen sämtliche Rechte an den Betreiber ab. Die Inhalte können somit zeitlich unbegrenzt und honorarfrei vervielfältigt werden – nicht nur online, sondern auch in Druckwerken. Sogar ein Weiterverkauf der Nutzungsrechte an Dritte ist möglich. Wirtschaftlicher Wert kommt nicht den Urhebern zugute – sie haben ihre Werke an die Plattform praktisch verschenkt. Viele Druckmedien mit Online-Ablegern folgen mittlerweile diesem Schema.

Die Datenmenge im Internet wächst rasant. Je mehr Daten jedoch im Netz stehen, desto schwieriger wird ihre Nutzung, da man etwas wirklich Passendes kaum noch findet. Am Fotoportal www.flickr.com zeigt sich eine weitere Dimension des Dilemmas: Dort können Fotos hochgeladen und zu Gruppen zusammengestellt werden. Aber wie findet man ein Bild mit einer Ansicht von Berlin? Eine Suche nach dem Text „Berlin“ ist ja nicht möglich, da es sich um Fotos handelt.

Web-2.0-Anwendungen nutzen hier das Mittel der Verschlagwortung. Nutzer können zu ihren Fotos eine Liste von Worten (Tags) angeben, die aus ihrer Sicht das Bild beschreiben. Nach diesen Worten kann dann durch Textvergleich gesucht werden. Die Suche nach „Berlin“ liefert so eine knappe Million Bilder. Die Schlagworte sind jedoch nicht eindeutig. Der Nutzer könnte auch ein anderes Berlin meinen – oder er verwendet lieber das Schlagwort „Hauptstadt“. Ein Wildwuchs von Schlüsselworten würde sogar eine gute Suche verhindern. Wer aber seine Bilder einstellt, will, dass sie gefunden werden. Und wird sich auch in den Schlüsselworten allgemeinverständlich ausdrücken.

So entstehen sogennante Tag-Clouds, „Wolken“ aus Schlüsselworten. Je mehr Nutzer Tags vergeben, umso stabiler werden diese Wolken – sie stellen quasi den gemeinsamen Nenner der „Verschlagwortung“ dar. Mittlerweile hat sich für dieses gemeinschaftliche Indexieren der Begriff „Folksonomie“ etabliert – von Nutzern erstellte Taxonomien.

Auch im Web 2.0 stehen die Daten als sogenannte Repräsentationen symbolisch für Informationen. So stehen beispielsweise die Zeichen „w“, „a“, „r“ und „m“ (warm) für die Information, dass eine höhere Temperatur herrscht. Man muss also die Zeichen in einen Zusammenhang stellen, Daten alleine sind nicht ausreichend, um einen Sachverhalt zu erfassen. Vielmehr benötigen die Daten Zusatzinformationen, die als Metadaten bezeichnet werden. Sie sind Gegenstand intensiver Forschung zum sogenannten Semantic Web. Es erweitert das Internet um maschinenlesbare Daten, welche die Semantik der Inhalte formal beschreiben. Anstatt „Berlin“ nur als Zeichenfolge zu einem Bild zu vergeben, kann man künftig mit Semantic Web genauer notieren, dass ein Bild im Netz eine Aufnahme der deutschen Stadt Berlin zeigt. Diese Aussage verwendet Verweise auf die Konzepte „deutsch“, „Stadt“ und „Berlin“. Mit Konzept ist in diesem Falle das gemeint, was ein mentales Bild in unserer Vorstellung auslöst.

Man braucht natürlich eine Sammlung solcher Konzepte. Im Semantic Web gibt es die „Web-Ontologien“. Dieses sind Konzeptnetze, die inhaltliche Beziehungen darstellen. So könnte man alle Städte der Welt aufschreiben und ihnen jeweils eindeutige Netzadressen zuordnen. Man könnte notieren, in welchem Land sie liegen, welche Koordinaten sie haben und wie groß sie sind. Auf diese Weise würde man eine Web-Ontologie aller Städte der Welt definieren. Die Plattform Geonames Ontology (www.geonames.org/ontology) setzt dies bereits um. Die deutsche Stadt Berlin wird dort durch die Netzadresse http://sws.geonames.org/ 6547383 eindeutig bezeichnet. Wenn man so Metadaten zu einem Bild notiert, besteht keine Verwechslungsgefahr mit dem etwas weniger bekannten Berlin in Honduras – dann müsste man nämlich http://sws.geonames.org/3614789 verwenden.

Ontologien lassen sich weiter anreichern. Während man bei Flickr nach Bildern von „Berlin“ suchen kann, lassen sich mit zusätzlichen Informationen mehr Anfragen beantworten. In der Ontologie lässt sich vermerken, dass Berlin, Rom und Washington Hauptstädte sind. Bilder aus Hauptstädten lassen sich dann mittels einer einfachen Regelanwendung finden, obwohl bei keinem Bild das Tag „Hauptstadt“ vergeben wurde.

Das Web 2.0 nennt man zusammen mit semantischen Informationen Web 3.0. Die inhaltliche Beschreibung reduziert die Kosten für das Auffinden von Informationen im Internet. Was sonst nicht zugänglich wäre, ist aufzufinden, wie das Beispiel „Hauptstadt“ zeigt. Mehrdeutigkeiten – wie der honduranische Namensvetter von Berlin – sind ausgeschlossen. Für Unternehmen reduziert jegliche hier gesparte Zeit Kosten, denn es entfällt die manuelle Zusatzarbeit, um falsche Treffer auszusortieren.

Informatiker der Freien Universität Berlin beschäftigen sich seit Langem mit Semantic Web. Sie haben Anwendungen in Bereichen wie Tourismus, Stellenvermittlung und Gesundheit untersucht und sind nun so weit, daraus die Ausgründung „Ontonym“ zu starten. Künftig bietet sie für das Web 3.0 auf Ontologie basierende Dienste zur Suche und zum Vergleich von Informationsobjekten an. Zugleich werden die Forschungsaktivitäten ausgebaut. So wird für das Bundesministerium für Bildung und Forschung die Forschergruppe „Corporate Semantic Web“ eingerichtet. Sie soll den Einsatz von Web 3.0 in Unternehmen vorantreiben und dabei neue Verfahren und Technologien zur Suche, zur Ontologie-Erstellung und zu semantisch unterstützter Gruppenarbeit untersuchen. Beide Aktivitäten stehen für Innovation: Einerseits werden neue Ansätze mit konkretem Anwendungsbezug entwickelt. Andererseits belässt man es nicht nur bei der prototypischen Vorführung neuer Technologien, sondern bereitet sie in Form von Produkten auf und trägt so als Universität zu wirtschaftlichem Wachstum bei.

Der Autor ist Professor für Informatik an der Freien Universität Berlin. Weitere Informationen im Internet: www.ag-nbi.de und www.ontonym.de.


VON DEN ANFÄNGEN BIS HEUTE

Kleine Geschichte des Internets

Als Ursprung des Internets gilt ein Projekt des US-Verteidigungsministeriums, das ARPANET (Advanced Research Projects Agency). Ab 1969 als dezentrales Netz für experimentelle und theoretische Untersuchungen aufgebaut, verband es zunächst die Computer von nur vier Wissenschaftseinrichtungen.

In den Folgejahren schlossen sich Universitäten und Forschungsinstitute an, zudem entstanden in den 1970er und 1980er Jahren ähnliche lokale Netze in den USA, Europa und Japan. Da sie auf verschiedenen technischen Standards basierten, ermöglichte erst ein 1973/ 1974 entwickeltes Übertragungsprotokoll (TCP/IP – Transmission Control Protocol/Internet Protocol) Übergänge und so miteinander verbundene Netzwerke. Trotzdem diente das Internet weiter primär wissenschaftlichem Informationsaustausch. Erst die Entwicklung des World Wide Web (WWW) 1992 am europäischen Kernforschungszentrum CERN in Genf sowie 1993 die Einführung des Browsers Mosaic machten es allgemein zugänglich. Neu war die Seitenbeschreibungssprache HTML, die eine Verlinkung vorhandener Informationen und eine benutzerfreundliche Oberfläche ermöglichte. So gewann das Internet zunehmend kommerziell an Bedeutung. Das digitale Breitband DSL ermöglichte es schließlich Ende der 1990er Jahre, weit größere Datenmengen zu übertragen. tos