WISSenSInFRaStRUKtURen FüR DaS

WISSenSInFRaStRUKtURen
FüR DaS antHRopozän
Paul N. Edwards
Das zeitalter des anthropozäns ist ein aufruf an uns Menschen, unsere Rolle im Stoffwechsel des planeten zu überdenken – und neu
zu gestalten. Wie müssten Wissensinfrastrukturen aussehen, wenn
eine solche Bilanzierung, eine solche Umgestaltung ihr Sinn und
zweck wäre?
Wissensinfrastrukturen sind »widerstandsfähige netzwerke von
Menschen, artefakten und Institutionen. Sie erzeugen, verbreiten
und pflegen besonderes Wissen über die menschlichen und natür­
lichen Welten.«1 Definitionen von »Infrastruktur« beinhalten in
der Regel die Kriterien der verlässlichkeit und transparenz: nutzer verlassen sich auf Infrastrukturen, ohne darüber nachzudenken,
wie sie funktionieren oder welche arbeit nötig ist, um sie aufrechtzuerhalten. erst im Moment des zusammenbruchs ruft sich eine
Infrastruktur in unser Bewusstsein. Beispiele für gut funktionierende Wissensinfrastrukturen sind volkszählungen, Wettervorhersagen oder die Check­ups der Gesundheitsvorsorge. Der Begriff ist
aber mit absicht vieldeutig und kann sich ebenso auf Forschungseinrichtungen, Konzernlabors oder auf ämter beziehen, die mit
der verwaltung von Information, der ernährungssicherheit, den
arbeitsmärkten oder der Umwelt befasst sind. Wissensinfrastrukturen lassen sich auf verschiedensten ebenen betrachten – von einzelnen einrichtungen (zum Beispiel dem europäischen zentrum
für mittelfristige Wettervorhersage) über die umfassenderen netzwerke, denen sie angehören (World Weather Watch programme
der Weltorganisation für Meteorologie) bis hin zu noch größeren
Verbänden wie dem Global Earth Observation System of Systems
(GeoSS).
242
aus einer anderen perspektive erscheinen Infrastrukturen des
Wissens als ineinander verschränkte Ökologien von Systemen und
netzwerken, die sich gegenseitig unterstützen. Beispielsweise tragen Statistikämter mit ihren Bevölkerungs-, arbeits- und Wirtschaftstatistiken ebenso wie die empirische Sozialforschung zu detailliertem Wissen über die Bevölkerung eines Staates bei; dessen
Regierungen nutzen dieses Wissen für ihre Handhabe der arbeitslosigkeit, der Marktregulierung etc. Staatliche Fördereinrichtungen
und private Stiftungen unterstützen wissenschaftliche Forschung.
zeitschriften- und Buchverlage machen ergebnisse dieser Forschung
bekannt und erfüllen bei der Qualitätskontrolle mit dem System der
peer reviews eine wichtige aufgabe.
Bildung besteht nicht nur darin, den Stand des gesicherten Wissens zu verbreiten, sondern auch in der erziehung neuer Generationen potenzieller Wissensproduzenten; wenn sie funktioniert, bringt
sie Menschen bei, wie man Beweise sucht, bewertet und analysiert,
und wie man aus der verbindung neuer erkenntnisse mit bestehendem Wissen neue Einsichten gewinnt. Wie die physischen Infrastrukturen etwa der Containerschifffahrt oder der Mobiltelefonie
zeichnen sich Wissensinfrastrukturen durch ihren modularen charakter und ihre vernetzte organisation aus; sie bestehen aus zahlreichen interagierenden, aber weitgehend voneinander unabhängigen
Gruppen und Institutionen, von denen jede ihre eigenen Maßgaben,
Wertvorstellungen, Geldquellen und mittelfristigen ziele hat.
am Beginn des 21. Jahrhunderts erleben wir einen umfangreichen
Wandel in so gut wie allen Wissensinfrastrukturen. am offensichtlichsten und allgegenwärtigsten und vielleicht auch am folgenreichsten unter all diesen transformationen sind pc, Internet und World
Wide Web. Indem Rechnernetze die Kosten der vervielfältigung
von Information und den zeitlichen aufwand der Suche nach ihr auf
nahezu null reduziert sowie eine schnelle und treffergenaue Suche
überhaupt erst ermöglicht haben, ist eine neue Umgebung für die
erzeugung, verwendung, Diskussion und erneuerung von Wissen
entstanden. andere transformationen, teilweise in zusammenhang
mit der digitalen Revolution, haben die traditionellen Wissenssysteme
243
ebenso erschüttert. Suchmaschinen, soziale Medien und der Internethandel erzeugen riesige Mengen von Daten über die Interessen,
vorlieben und verhaltensweisen der nutzer. Diese Daten lassen sich
»ausbeuten«, um vielversprechende, anders nicht erkennbare Muster
aufzuspüren und die Qualität von Suchergebnissen zu verbessern.
zunehmend verlassen sich Wissensproduzenten auf digitale Daten
und computergestützte Analysen. Dies setzt in Verbindung mit der
relativen einfachheit und den geringeren Kosten der veröffentlichung von Daten und programmcodes neue normen für wissenschaftliche publikationen. Da sowohl Daten als auch programme
öffentlich verfügbar sind, lassen sich viele wissenschaftliche erkenntnisse jederzeit von unabhängigen Forschern überprüfen. Im
prinzip können veröffentlichte Forschungsergebnisse dann auch von
anderen, mit der prüfung beauftragten personen für deren eigene
zwecke benutzt werden.
Diese entwicklungen geschehen im Kontext eines möglicherweise tiefgreifenden Kulturwandels (in vielen teilen der Welt) hin
zu mehr »transparenz« und »offenheit«, und zwar nicht nur in der
Wissensproduktion, sondern ebenso in politik und verwaltung.
Freier zugang (zu veröffentlichter Forschung), quelloffene Software
und frei verfügbare Daten werden in westlichen Wissensinstitutionen rasch zur norm. zahlreiche Universitäten haben damit begonnen, ihre lehrveranstaltungen über Moocs einer riesigen onlineHörerschaft anzubieten. Das war bisher ein experiment mit
bestenfalls teilerfolgen, aber es wird mit Sicherheit weitergehen und
wahrscheinlich bessere angebote hervorbringen. offenheit bedeutet
mehr als nur verfügbarkeit; in vielen Kontexten ist sie getragen von
einer Idee der partizipatorischen Mitwirkung und Kritik. Wo früher die veröffentlichung einen Schlusspunkt bildete, den eine arbeit erst nach strenger Begutachtung erreichte, haben einige Wissenschaftskulturen inzwischen das weniger restriktive System des
vorabdrucks übernommen (formlose veröffentlichung vor der Begutachtung) oder die open peer review eingeführt: Herausgeber von
zeitschriften stellen entwürfe ins netz und fordern von den autoren Stellungnahmen zu den öffentlichen Kommentaren ein, bevor
244
sie den text veröffentlichen. ein noch radikaleres ethos – »veröffentlicht alles!« – überlässt die Begutachtung publizierter artikel
ganz den lesern. Die neuen Möglichkeiten des Web 2.0 und der
sozialen Medien prägen diese ansätze, indem sie automatisierte Benachrichtigungen und das nötige Umfeld für direkte Kommentare
einem breiten publikum zur verfügung stellen.
Schließlich wurden viele wichtige Hilfsmittel der Wissensproduktion zu käuflichen Waren und gleichzeitig enorm vereinfacht.
Zum Beispiel erforderten statistische Analysen und Modellbildungen einst erhebliche Begabung und eine mathematische ausbildung;
heute automatisieren und standardisieren programmpakete wie SpSS
(ursprünglich Statistical package for the Social Sciences) einen Großteil dieser arbeit. Software als Ware ermöglicht es sehr viel mehr
Menschen als bisher, bei der erstellung, prüfung, visualisierung und
veröffentlichung von Wissen mitzuwirken. Die Folge: zahlreiche
Universitätsabsolventen können heute Statistiken zu fast jedem beliebigen Phänomen kompetent analysieren und bewerten. Auch die
veranschaulichung oder schematische Darstellung sozialer netzwerke
und komplizierter Datensätze erforderte einst virtuose programmierkenntnisse. Heute kann man es dank allgemein verfügbarer Software ohne Umstände selbst erledigen. nicht zuletzt ist das programmieren von Rechnern mittlerweile eine weit verbreitete Kompetenz.
»Social coding«, projektarchive wie Github und open-Source-Softwareprojekte wie Apache oder Mozilla ziehen Millionen von programmierern aller Kompetenzstufen an, die Programme erfinden und
verbessern, darunter auch solche für den einsatz in der Wissenschaft.
alle diese entwicklungen haben sich in den eineinhalb Jahrzehnten des 21. Jahrhunderts dramatisch beschleunigt, und es stehen uns
mit Sicherheit noch weitere bevor. Die ansichten über ihre potenziale reichen von äußerstem optimismus – etwa der Hoffnung, dass
intelligente, fähige amateure ihren »kognitiven Mehrwert« in eine
bessere, schnellere Wissensproduktion einbringen werden – bis
hin zu tiefem pessimismus angesichts einer »naivität des technologischen Machbarkeitswahns«. ohne zweifel bestehen die größten
Herausforderungen nicht auf irgendeinem einzelnen Gebiet der
245
technologie, der Gesellschaft oder der verwaltung. entscheidend ist
am ende die Frage, ob sie sich alle miteinander in eine Richtung entwickeln, die belastbares, vertrauenswürdiges, allgemein verbreitetes
Wissen ergibt – oder eben nicht.
Erfassen, Modellieren, Speichern:
Wissen für das Anthropozän schaffen
In vielerlei Hinsicht bringt der Anthropozän­Begriff das bemerkenswerte, langfristige zusammenwirken natur- und sozialwissenschaftlicher erkenntnisse seit der Mitte des 20. Jahrhunderts auf den
punkt. Die sogenannte »Great acceleration« bezeichnet das exponentielle Wachstum menschlicher aktivitäten, angefangen bei der
landwirtschaft über die Müllproduktion bis hin zur ausbeutung
fossiler energieträger, ebenso wie ihre destruktive Wirkung auf natürliche Milieus, die sich seit ungefähr 1950 mit deutlicher Beschleunigung in schwindenden Fischbeständen, globaler erwärmung,
übersäuerung der Meere und vielem anderem mehr äußert. Doch
die beeindruckenden Kurven der »Great acceleration« berücksichtigen gewöhnlich nicht den ebenso beeindruckenden zuwachs an
menschlichem Wissen nicht nur über diese Umweltveränderungen,
sondern auch über menschliche Gesellschaften und den Wandel in
ihnen. Sie tun das nicht einmal dann, wenn sie gerade das zusammenwirken all dessen veranschaulichen wollen.
Woher kommt all dieses Wissen? So gut wie alles, was uns über
das Anthropozän als geophysikalisches, ökologisches und gesellschaftliches phänomen bekannt ist, entstammt den im 20. Jahrhundert geschaffenen wissenschaftlichen Infrastrukturen. einige
Infrastrukturen, etwa die artenkataloge der Biologie und die aufzeichnungen von Klimadaten, sind älter – aber in jedem Fall war es
die kumulierende erfassung von charakteristika unserer Umwelt,
die das Bewusstsein für den globalen Wandel begründete. Im Internationalen Geophysikalischen Jahr 1957/58 schufen etliche Wissenschaftszweige kontinuierliche Beobachtungsnetzwerke auf dem
land, in der luft, auf dem Meer und im Weltraum. als in den
246
1970er Jahren die Umweltprobleme stärker ins Bewusstsein traten,
nahmen Umfang und Bedeutung dieser netzwerke zu. viele waren
international bereits lose in Behörden wie dem Umweltprogramm
der vereinten nationen, dem Internationalen Wissenschaftsrat oder
der Weltorganisation für Meteorologie organisiert. Weniger augenfällig ist vielleicht, dass seit den 1950er Jahren soziale Systeme in
aller Welt fortschreitend mit den verschiedensten »Sensoren« – insbesondere Meinungsumfragen und die obligatorische Weitergabe
von demografischen, wirtschaftlichen, gesundheitsrelevanten und anderen gesellschaftlichen Daten an staatliche Behörden und die vereinten nationen – »ausgerüstet« wurden.
Die rechnergestützte Modellbildung simuliert physikalische oder
ökologische Systeme mathematisch. Diese Technik hat eine ebenso
bedeutende Rolle bei der produktion von Wissen über das anthropozän gespielt. auf den meisten Gebieten nutzt man die Modellbildung, um ein theoretisches verständnis komplexer, interaktiver
Prozesse zu entwickeln, für deren Analyse experimentelle Methoden zu schwerfällig, zu langsam oder ganz unbrauchbar wären. Modelle bieten auch die Möglichkeit, zukünftige Folgen anthropogener
oder natürlicher Umweltveränderungen zu prognostizieren; in einigen Bereichen, etwa bei der Klimafolgenforschung, sind vorausschauende prognosen der vorrangige einsatzzweck solcher Modelle.
eine ebenso wichtige Dimension der Modellbildung ist ihre anregung zum fächerübergreifenden Dialog in den Wissenschaften.
Beispielsweise fanden ab den 1970er Jahren, als der Klimawandel zu
einem ernsthaften Forschungsgegenstand wurde, erste tagungen zur
»Umweltbiogeochemie« statt, und Ökologen begannen, den Kohlenstoffzyklus im Modell nachzubauen. In den 1990er Jahren integrierten Klimamodellierer erstmals vegetation und andere Formen der
Bodenbedeckung in Untermodelle. von Sozialwissenschaftlern ausgearbeitete Modelle sozialer netzwerke, ökonomischer verhaltensmuster und demografischer Veränderungen nahmen eine ähnliche
entwicklung. auch hier hat sich in letzter zeit wie in den naturwissenschaften die Modellbildung als plattform interdisziplinärer
zusammenarbeit etabliert. ein Beispiel dafür ist die verhaltens247
ökonomik, die mit experimentellen Methoden und unter einbeziehung von Erkenntnissen der Kognitions­ und Sozialpsychologie die
schlichten, gängigen Modelle des »rationalen akteurs« in den Wirtschaftswissenschaften revidieren will.
Wie jede art von Wissen über die vergangenheit hängt auch das
Wissen über das anthropozän von der Qualität und Quantität der
Speicher ab. von früheren Generationen wurden mit den damaligen,
inzwischen kontinuierlich weiterentwickelten Instrumenten, Standards und techniken Daten gesammelt, die nun mit den neueren
Daten abgeglichen werden müssen. Um die Qualität der Speicher zu
bewerten, braucht man Metadaten (»Daten über Daten« beziehungsweise Informationen darüber, wo, wann und wie Messungen vorgenommen wurden). Manchmal sind diese leicht verfügbar, oft aber
auch unvollständig oder nicht vertrauenswürdig. In solchen Fällen
finden Forscher gelegentlich geniale Mittel und Wege, ihrem Material brauchbare Metadaten abzugewinnen. Beispielsweise zeigten
Daten zur weltweiten Oberflächentemperatur der Meere – einer unverzichtbaren variable in der Klimaforschung – für das Jahr 1945
eine plötzliche Abkühlung um 0,3° C. Das Rätsel dieser physikalisch
unwahrscheinlichen veränderung klärte sich, als die Forscher alte
Handbücher fanden, in denen beschrieben wurde, wie die Messungen auf den verschiedenen Schiffen durchgeführt wurden: Die aufzeichnungen von 1942 bis 1945 stammten hauptsächlich von USamerikanischen Schiffen, die Oberflächentemperaturen direkt in den
einlasskanälen ihrer antriebe maßen. Doch nach dem zweiten
Weltkrieg gingen die – unisolierten eimern entnommenen – ergebnisse aus britischen logbüchern erneut in die Messdatensammlungen ein. Das Gleiche gilt für sozialwissenschaftliche Daten, etwa
Wirtschafts- und Bevölkerungsstatistiken, für deren erhebung es vor
1950 kaum weltweit gültige Richtlinien gab. Daten aus der vergangenheit »schimmern« in dem Sinn, dass viele von ihnen im licht
neuer, von der historischen Forschung gelegentlich zutage geförderter Metadaten laufend überarbeitet werden.
Infrastrukturen zur erfassung, Modellbildung und Speicherung
haben uns mit Wissen über das anthropozän ausgestattet. Die ent248
wickler dieser Infrastrukturen waren vom Systemdenken getrieben –
einer enorm produktiven Manie der Wissenschaften um die Mitte
des 20. Jahrhunderts. es äußerte sich (unter anderem) in der ausarbeitung von Ökologie- und Klimamodellen in den naturwissenschaften, sowie in der Kybernetik und Systemdynamik auf Seiten
der Sozialwissenschaften. zum Beispiel ging es den organisatoren
des Internationalen Geophysikalischen Jahres nicht zuletzt darum,
die Hypothese eines einzigen physikalischen Weltsystems zu überprüfen, wonach atmosphäre, Ionosphäre, Meere und Festland auf
der erde nur in ihrer Wechselwirkung als Gesamtheit untersucht
werden können; der enorm einflussreiche »Club of Rome«­Bericht
Die Grenzen des Wachstums ging aus einer Forschungsgruppe am
MIT hervor, die sich auf die Modellbildung von »Weltdynamiken«
spezialisiert hatte.
Der Technometabolismus im Anthropozän
Seit 1950 haben wir Menschen sehr viel mehr über uns selbst als
Gesellschaften und als art gelernt, und in einigen wichtigen Fällen
haben wir dieses Wissen auch erfolgreich angewandt, um den lauf
der Geschichte zu ändern. zum Beispiel führten wissenschaftliche
erkenntnisse der 1970er Jahre über die zerstörung der ozonschicht
dazu, dass in den 1980er Jahren das Montreal-protokoll und das
Wiener übereinkommen zum Schutz der ozonschicht beschlossen
wurden, die zahlreiche schädliche chemikalien verboten und wahrscheinlich die erfolgreichsten internationalen abkommen aller zeiten sind. Die ozonschicht hat sich seit 2005 stabilisiert, und man
geht davon aus, dass sie sich in den kommenden Jahrzehnten regenerieren wird. ein noch sinnfälligeres Beispiel: Das rasche Wachstum
der Weltbevölkerung im 20. Jahrhundert war die Hauptursache der
zunehmenden Umweltzerstörung. Doch in den vergangenen 40 Jahren sind die Wachstumsraten kontinuierlich gesunken, was (zum
großen teil) mit dem höheren Bildungsstand unter Frauen in aller
Welt zu tun. Der bessere zugang zu Wissen wirkt sich direkt auf die
Geburtenraten aus.
249
Seit 1950 haben internationale Konzerne gelernt, zunehmend
leistungsfähige Informationssysteme zur Erfassung von Produktion
und Konsum, angebot und nachfrage, Modewellen, Rohmaterialien und verarbeitungsprozessen einzusetzen. Firmen haben die Datentechnologie außerdem genutzt, um von finanziellen Prognosen
bis zur produktgestaltung alles in Modelle zu fassen, und Speichersysteme haben im Spätkapitalismus zur Beherrschung der Logistik
beigetragen: es gibt nun genaue und pünktliche Methoden, mit
denen man Waren, Dienstleistungen und Geld in komplizierten globalen lieferketten verfolgen, bewegen, fertigen und zustellen kann.
Konzerneigene Wissensinfrastrukturen (oft profitierten sie unmittelbar von akademischen und staatlichen) spielten eine Hauptrolle
bei der Ausweitung der »Technosphäre«, von Peter Haff definiert
als »miteinander verknüpfte ansammlung von Kommunikations-,
Verkehrs­, Bürokratie­ und anderen Systemen, die für den Meta­
bolismus fossiler Brennstoffe und anderer energieträger gebraucht
werden«.2 trotz ihrer Beherrschung der logistik schafft es die technosphäre bisher jedoch kaum, ihre abfälle – die durch ihre Umwandlung von energie und Material erzeugten Stoffwechselprodukte,
die ihrerseits die Öko- und Geosphäre verändern – wiederzuverwerten. Grundlegendes paradigma der technosphäre ist nach wie vor
die ausbeutung von Rohstoffen und ihre Umwandlung in produkte;
der abfall aus der produktion und der verbrennung fossiler energieträger ist meist nicht mehr als ein verdrießlicher Gedanke im
Hinterkopf, während die entsorgung am ende eines produktlebens
den verbrauchern überlassen bleibt. über Märkte internalisiert die
technosphäre Rohstoffe und energieträger, aber sie externalisiert
abfall als wertloses oder giftiges ärgernis, das ins globale Gemeinschaftseigentum übergeht.
Wie schon aus der beiläufigen Erwähnung der Logistik deutlich
wird, verarbeitet der Stoffwechsel der technosphäre aber auch Information. Die technosphäre wird mit Daten gespeist und erzeugt
wieder andere als Output, und zwar in komplizierten Zyklen der
Rückkoppelung und Kontrolle. ein teil ihrer energie dient der verarbeitung von Information. Diese energiemenge ist erheblich und
250
steigt rasch an: 2014 errechnete Greenpeace, dass cloud computing,
als land betrachtet, der sechstgrößte Stromverbraucher der Welt wäre.
private und gewerbliche endnutzer verbrauchen etwa die Hälfte
dieser Menge, Datenzentren weitere 15 bis 20 prozent. zugleich
steuert Information – insbesondere wissenschaftliche erkenntnis –
den energiestoffwechsel der technosphäre ebenso wie deren unermüdliche Suche nach Rohstoffen und energie.
Kreisläufe schließen: vom Systemdenken zu einer
neuen ökologischen Logistik
Das System­Denken fällt uns Menschen wegen seiner Komplexität und seiner Rückkoppelungen, die jeder Intuition widersprechen,
grundsätzlich schwer. andererseits ist inzwischen eine enorme
Bandbreite von System­Daten ohne Schwierigkeiten verfügbar, und
kommerzielle Werkzeuge für die Darstellung von Systemen in Modellen sind der allgemeinheit so leicht zugänglich wie nie zuvor. Der
Spielraum für eine nachhaltige Mitwirkung der Bürger am wissenschaftlichen prozessen vergrößert sich rasant. zugleich eröffnet das
»vierte paradigma« einer wesentlich datengetriebenen Wissenschaft
auf der Basis ganzer Sensorenbatterien, selbst lernender Maschinen
und Analysen sehr umfangreicher Datenbestände der Erfassung,
Modellbildung und Speicherung neue Dimensionen. Wie könnten
diese Werkzeuge, techniken und Daten so verbunden werden, dass
dabei nützliches und anwendbares Wissen für den Umgang mit den
Herausforderungen des anthropozäns entsteht?
Die logistik könnte ein Modell für anthropozäne Wissensinfrastrukturen sein. logistik begann als Buchhaltung. zu wissen, was
man einnimmt, was man ausgibt, wie sich die einzelnen posten verschieben und verändern – egal, ob man sie sich als Geld, Menschen,
Werkzeuge oder fossilen Kohlenstoff vorstellt – ist der erste Schritt
zu einem geschlossenen Kreislauf aus technosphäre und Biosphäre,
zur Berechnung der einen in den Begriffen der anderen. Beispiele
dafür sind die aufkommenden verfahren der »Kohlenstoffbilanzierung«. Ob mit einem Preis versehen oder nicht: Kohlenstoff dient
251
zunehmend als Währung zur ermittlung der Umweltbelastung
durch so gut wie jedes produkt oder menschliches Handeln – nicht
nur, wenn dafür Treibstoff verbrannt wird, sondern auch hinsichtlich der zerstörung der Wälder, der »abgase« von Rindern und der
Emissionen von Kühlschränken. Der Begriff des »embodied carbon« – gemeint sind Kohlenstoff und andere Treibhausgase, die bei
der Herstellung eines produkts anfallen oder die in Form der Kapitalausstattung einer organisation entstehen – ermöglicht die Bilanzierung bestehender posten neben der im arbeitsprozess verbrauchten energie. er umgeht auch den etwas zu einfachen ansatz, die
verantwortung nur dem erstverbraucher von energie zuzuweisen.
Zurzeit sind die Kohlenstoff­Berechnungen noch fehlerhaft und als
System fragil. Doch in Zukunft könnte eine regelmäßige, standardisierte Kohlenstoffbilanz (neben anderen, ähnlichen verfahren) zur
Grundlage neuartiger erkenntnisse werden, die für die verringerung
von menschengemachten Schäden am Erdsystem wesentlich sind.
eine weitere neue Quelle von Wissen ist paradoxerweise zugleich eine art abfall: »Datenabgase«. eine der großen entdeckungen des ausgehenden 20. und frühen 21. Jahrhunderts war, dass so
gut wie jede Informationsverarbeitung nicht nur Daten nutzt,
sondern wiederum neue Daten als nebenprodukt erzeugt. Die
Internetaktivitäten von Milliarden Menschen – suchen, surfen, herunterladen, posten in sozialen Medien, einkaufen, kommentieren –
hinterlassen Spuren (Datenabgase), in denen man Muster entdecken
kann. Suchmaschinen wie Google analysieren Anfragen, am häufigsten gewählte Suchergebnisse und Muster in den verknüpfungen
zwischen digitalen objekten, um die Qualität ihrer ergebnisse zu
verbessern. Sie verwerten intelligentes verhalten von Menschen, wie
es sich in den nutzerentscheidungen niederschlägt, um intelligenteres künstliches verhalten zu erzeugen.
Die Wiederverwertung von »Datenabgasen« zur aufdeckung
von Mustern, trends und individuellen vorlieben ändert das verhältnis zwischen Designern, produzenten, vermarktern, verbrauchern und der zivilgesellschaft in aller Welt. es verändert auch die
Wissenschaft. Im Jahr 2014 lobten die US-amerikanischen centers
252
for Disease control ein preisgeld von 75.000 Dollar für die bestmögliche vorhersage von Grippewellen aus. Der preis ging an Wissenschaftler, die Google-Daten zu Suchanfragen grippebezogenen
Inhalts mit amtlichen Statistiken auf der Basis von Krankenhausdaten verbanden. Die Kombination der Suchanfragen mit empirischen erhebungen »grippeähnlicher Krankheiten« in den Kliniken
ergab eine genauere prognose der Grippewelle von 2013/14 als jede
dieser Datenquellen für sich. Das orten von Mobiltelefonen und
ihrer Bewegung ist ein weiteres Beispiel für »Datenabgase«. es wurde eingesetzt, um den zusammenhang zwischen Wetteränderungen
und aggregiertem Sozialverhalten in Städten zu untersuchen – und
noch für vieles andere mehr: Mobiltelefone wurden mit Messfühlern ausgestattet, um Daten zur Umweltverschmutzung in Städten zu erheben, oder sie dienten zur Dokumentation von vogelzügen. nach dem atomunfall von 2011 in Fukushima verteilte das
projekt »Safecast« preiswerte Geigerzähler an japanische Bürger, die
damit verstrahlte »Hotspots« aufspüren und diese mithilfe von
Google Maps und openStreetMap verzeichnen konnten. Diese Daten wurden auch genutzt, um behördliche Datenquellen zu prüfen
und deren Glaubwürdigkeit infrage zu stellen. Bürger als Sensoren
einzusetzen und gesellschaftliches Handeln als Quelle von Daten
über Umweltveränderungen zu nutzen, könnte erstmals so etwas
wie neues Wissen für das anthropozän hervorbringen.
Wissensinfrastrukturen für das anthropozän könnten nicht nur
den energie-, Material- und Informationsstoffwechsel der technosphäre erfassen, in Modelle fassen und visualisieren. Sie könnten
diesen Stoffwechsel einschließlich seiner abfälle in Begriffen der
Lagerbestände und ­flüsse endlicher Ressourcen darstellen. Sehr viel
partizipatorischere und offenere Formen von Wissenschaft könnten
sich verbreiten, Denksysteme demokratisieren und damit zugleich
das öffentliche vertrauen in die Wissenschaft stärken. Durch die
Verbindung von »Datenabgasen« mit physikalischen und ökolo­
gischen Informationen könnte eine neue, ökologisch zielgerichtete
logistik den verbrauch von energie und Rohstoffen in der produktion verringern, neue arten der Wiederverwertung oder Wiederein253
speisung von Abfall finden und neue Ideen für die Beseitigung von
toxischen nebenprodukten, treibhausgasemissionen und anderen
Stoffwechselprodukten generieren. Wird es gelingen, diese Infrastrukturen aufzubauen? Können wir es uns leisten, sie nicht aufzubauen?
Übersetzung aus dem Englischen von Herwig Engelmann
Weiterführende literatur
Geoffrey Boulton u. a., Science as an Open Enterprise: Open Data for Open
Science, Royal Society, London 2012.
Geoffrey C. Bowker and Susan Leigh Star, Sorting Things Out: Classification and its Consequences, MIt press, cambridge Ma 1999.
paul n. edwards, A Vast Machine: Computer Models, Climate Data, and the
Politics of Global Warming, MIt press, cambridge Ma 2010
paul n. edwards u. a., Understanding Infrastructure: Dynamics, Tensions,
and Design. Deep Blue, ann arbor 2007.
paul n. edwards u. a., Knowledge Infrastructures: Intellectual Frameworks
and Research Challenges, Deep Blue, ann arbor 2013
Peter K. Haff, »Humans and Technology in the Anthropocene: Six Rules«,
in: The Anthropocene Review, 1–11 (2014), doi: 10.1177/2053019614530575
Peter K. Haff, Technology as a Geological Phenomenon: Implications for Human Well-Being, Geological Society, London, Special Publications 395
(2013), doi: 10.1144/Sp395.4
Tony Hey, Stewart Tansley, Kristin Tolle (Hg.), The Fourth Paradigm:
Data-Intensive Scientific Discovery, Microsoft Research, Redmond Wa
2009.
Michael nielsen, Reinventing Discovery: the New Era of Networked Science,
Princeton University Press, Princeton 2011.
David Weinberger, Too Big to Know: Rethinking Knowledge Now That the
Facts Aren’t the Facts, Experts Are Everywhere, and the Smartest Person in
the Room Is the Room, Basic Books, New York 2012.
254
anmerkungen
1
2
paul n. edwards, A Vast Machine: Computer Models, Climate Data, and
the Politics of Global Warming, MIt press, cambridge Ma 2010.
Peter K. Haff, Technology as a Geological Phenomenon: Implications
for Human Well-Being, Geological Society, London, Special Publi­
cations 395, 10.1144/Sp395.4.
255