WISSenSInFRaStRUKtURen FüR DaS antHRopozän Paul N. Edwards Das zeitalter des anthropozäns ist ein aufruf an uns Menschen, unsere Rolle im Stoffwechsel des planeten zu überdenken – und neu zu gestalten. Wie müssten Wissensinfrastrukturen aussehen, wenn eine solche Bilanzierung, eine solche Umgestaltung ihr Sinn und zweck wäre? Wissensinfrastrukturen sind »widerstandsfähige netzwerke von Menschen, artefakten und Institutionen. Sie erzeugen, verbreiten und pflegen besonderes Wissen über die menschlichen und natür lichen Welten.«1 Definitionen von »Infrastruktur« beinhalten in der Regel die Kriterien der verlässlichkeit und transparenz: nutzer verlassen sich auf Infrastrukturen, ohne darüber nachzudenken, wie sie funktionieren oder welche arbeit nötig ist, um sie aufrechtzuerhalten. erst im Moment des zusammenbruchs ruft sich eine Infrastruktur in unser Bewusstsein. Beispiele für gut funktionierende Wissensinfrastrukturen sind volkszählungen, Wettervorhersagen oder die Checkups der Gesundheitsvorsorge. Der Begriff ist aber mit absicht vieldeutig und kann sich ebenso auf Forschungseinrichtungen, Konzernlabors oder auf ämter beziehen, die mit der verwaltung von Information, der ernährungssicherheit, den arbeitsmärkten oder der Umwelt befasst sind. Wissensinfrastrukturen lassen sich auf verschiedensten ebenen betrachten – von einzelnen einrichtungen (zum Beispiel dem europäischen zentrum für mittelfristige Wettervorhersage) über die umfassenderen netzwerke, denen sie angehören (World Weather Watch programme der Weltorganisation für Meteorologie) bis hin zu noch größeren Verbänden wie dem Global Earth Observation System of Systems (GeoSS). 242 aus einer anderen perspektive erscheinen Infrastrukturen des Wissens als ineinander verschränkte Ökologien von Systemen und netzwerken, die sich gegenseitig unterstützen. Beispielsweise tragen Statistikämter mit ihren Bevölkerungs-, arbeits- und Wirtschaftstatistiken ebenso wie die empirische Sozialforschung zu detailliertem Wissen über die Bevölkerung eines Staates bei; dessen Regierungen nutzen dieses Wissen für ihre Handhabe der arbeitslosigkeit, der Marktregulierung etc. Staatliche Fördereinrichtungen und private Stiftungen unterstützen wissenschaftliche Forschung. zeitschriften- und Buchverlage machen ergebnisse dieser Forschung bekannt und erfüllen bei der Qualitätskontrolle mit dem System der peer reviews eine wichtige aufgabe. Bildung besteht nicht nur darin, den Stand des gesicherten Wissens zu verbreiten, sondern auch in der erziehung neuer Generationen potenzieller Wissensproduzenten; wenn sie funktioniert, bringt sie Menschen bei, wie man Beweise sucht, bewertet und analysiert, und wie man aus der verbindung neuer erkenntnisse mit bestehendem Wissen neue Einsichten gewinnt. Wie die physischen Infrastrukturen etwa der Containerschifffahrt oder der Mobiltelefonie zeichnen sich Wissensinfrastrukturen durch ihren modularen charakter und ihre vernetzte organisation aus; sie bestehen aus zahlreichen interagierenden, aber weitgehend voneinander unabhängigen Gruppen und Institutionen, von denen jede ihre eigenen Maßgaben, Wertvorstellungen, Geldquellen und mittelfristigen ziele hat. am Beginn des 21. Jahrhunderts erleben wir einen umfangreichen Wandel in so gut wie allen Wissensinfrastrukturen. am offensichtlichsten und allgegenwärtigsten und vielleicht auch am folgenreichsten unter all diesen transformationen sind pc, Internet und World Wide Web. Indem Rechnernetze die Kosten der vervielfältigung von Information und den zeitlichen aufwand der Suche nach ihr auf nahezu null reduziert sowie eine schnelle und treffergenaue Suche überhaupt erst ermöglicht haben, ist eine neue Umgebung für die erzeugung, verwendung, Diskussion und erneuerung von Wissen entstanden. andere transformationen, teilweise in zusammenhang mit der digitalen Revolution, haben die traditionellen Wissenssysteme 243 ebenso erschüttert. Suchmaschinen, soziale Medien und der Internethandel erzeugen riesige Mengen von Daten über die Interessen, vorlieben und verhaltensweisen der nutzer. Diese Daten lassen sich »ausbeuten«, um vielversprechende, anders nicht erkennbare Muster aufzuspüren und die Qualität von Suchergebnissen zu verbessern. zunehmend verlassen sich Wissensproduzenten auf digitale Daten und computergestützte Analysen. Dies setzt in Verbindung mit der relativen einfachheit und den geringeren Kosten der veröffentlichung von Daten und programmcodes neue normen für wissenschaftliche publikationen. Da sowohl Daten als auch programme öffentlich verfügbar sind, lassen sich viele wissenschaftliche erkenntnisse jederzeit von unabhängigen Forschern überprüfen. Im prinzip können veröffentlichte Forschungsergebnisse dann auch von anderen, mit der prüfung beauftragten personen für deren eigene zwecke benutzt werden. Diese entwicklungen geschehen im Kontext eines möglicherweise tiefgreifenden Kulturwandels (in vielen teilen der Welt) hin zu mehr »transparenz« und »offenheit«, und zwar nicht nur in der Wissensproduktion, sondern ebenso in politik und verwaltung. Freier zugang (zu veröffentlichter Forschung), quelloffene Software und frei verfügbare Daten werden in westlichen Wissensinstitutionen rasch zur norm. zahlreiche Universitäten haben damit begonnen, ihre lehrveranstaltungen über Moocs einer riesigen onlineHörerschaft anzubieten. Das war bisher ein experiment mit bestenfalls teilerfolgen, aber es wird mit Sicherheit weitergehen und wahrscheinlich bessere angebote hervorbringen. offenheit bedeutet mehr als nur verfügbarkeit; in vielen Kontexten ist sie getragen von einer Idee der partizipatorischen Mitwirkung und Kritik. Wo früher die veröffentlichung einen Schlusspunkt bildete, den eine arbeit erst nach strenger Begutachtung erreichte, haben einige Wissenschaftskulturen inzwischen das weniger restriktive System des vorabdrucks übernommen (formlose veröffentlichung vor der Begutachtung) oder die open peer review eingeführt: Herausgeber von zeitschriften stellen entwürfe ins netz und fordern von den autoren Stellungnahmen zu den öffentlichen Kommentaren ein, bevor 244 sie den text veröffentlichen. ein noch radikaleres ethos – »veröffentlicht alles!« – überlässt die Begutachtung publizierter artikel ganz den lesern. Die neuen Möglichkeiten des Web 2.0 und der sozialen Medien prägen diese ansätze, indem sie automatisierte Benachrichtigungen und das nötige Umfeld für direkte Kommentare einem breiten publikum zur verfügung stellen. Schließlich wurden viele wichtige Hilfsmittel der Wissensproduktion zu käuflichen Waren und gleichzeitig enorm vereinfacht. Zum Beispiel erforderten statistische Analysen und Modellbildungen einst erhebliche Begabung und eine mathematische ausbildung; heute automatisieren und standardisieren programmpakete wie SpSS (ursprünglich Statistical package for the Social Sciences) einen Großteil dieser arbeit. Software als Ware ermöglicht es sehr viel mehr Menschen als bisher, bei der erstellung, prüfung, visualisierung und veröffentlichung von Wissen mitzuwirken. Die Folge: zahlreiche Universitätsabsolventen können heute Statistiken zu fast jedem beliebigen Phänomen kompetent analysieren und bewerten. Auch die veranschaulichung oder schematische Darstellung sozialer netzwerke und komplizierter Datensätze erforderte einst virtuose programmierkenntnisse. Heute kann man es dank allgemein verfügbarer Software ohne Umstände selbst erledigen. nicht zuletzt ist das programmieren von Rechnern mittlerweile eine weit verbreitete Kompetenz. »Social coding«, projektarchive wie Github und open-Source-Softwareprojekte wie Apache oder Mozilla ziehen Millionen von programmierern aller Kompetenzstufen an, die Programme erfinden und verbessern, darunter auch solche für den einsatz in der Wissenschaft. alle diese entwicklungen haben sich in den eineinhalb Jahrzehnten des 21. Jahrhunderts dramatisch beschleunigt, und es stehen uns mit Sicherheit noch weitere bevor. Die ansichten über ihre potenziale reichen von äußerstem optimismus – etwa der Hoffnung, dass intelligente, fähige amateure ihren »kognitiven Mehrwert« in eine bessere, schnellere Wissensproduktion einbringen werden – bis hin zu tiefem pessimismus angesichts einer »naivität des technologischen Machbarkeitswahns«. ohne zweifel bestehen die größten Herausforderungen nicht auf irgendeinem einzelnen Gebiet der 245 technologie, der Gesellschaft oder der verwaltung. entscheidend ist am ende die Frage, ob sie sich alle miteinander in eine Richtung entwickeln, die belastbares, vertrauenswürdiges, allgemein verbreitetes Wissen ergibt – oder eben nicht. Erfassen, Modellieren, Speichern: Wissen für das Anthropozän schaffen In vielerlei Hinsicht bringt der AnthropozänBegriff das bemerkenswerte, langfristige zusammenwirken natur- und sozialwissenschaftlicher erkenntnisse seit der Mitte des 20. Jahrhunderts auf den punkt. Die sogenannte »Great acceleration« bezeichnet das exponentielle Wachstum menschlicher aktivitäten, angefangen bei der landwirtschaft über die Müllproduktion bis hin zur ausbeutung fossiler energieträger, ebenso wie ihre destruktive Wirkung auf natürliche Milieus, die sich seit ungefähr 1950 mit deutlicher Beschleunigung in schwindenden Fischbeständen, globaler erwärmung, übersäuerung der Meere und vielem anderem mehr äußert. Doch die beeindruckenden Kurven der »Great acceleration« berücksichtigen gewöhnlich nicht den ebenso beeindruckenden zuwachs an menschlichem Wissen nicht nur über diese Umweltveränderungen, sondern auch über menschliche Gesellschaften und den Wandel in ihnen. Sie tun das nicht einmal dann, wenn sie gerade das zusammenwirken all dessen veranschaulichen wollen. Woher kommt all dieses Wissen? So gut wie alles, was uns über das Anthropozän als geophysikalisches, ökologisches und gesellschaftliches phänomen bekannt ist, entstammt den im 20. Jahrhundert geschaffenen wissenschaftlichen Infrastrukturen. einige Infrastrukturen, etwa die artenkataloge der Biologie und die aufzeichnungen von Klimadaten, sind älter – aber in jedem Fall war es die kumulierende erfassung von charakteristika unserer Umwelt, die das Bewusstsein für den globalen Wandel begründete. Im Internationalen Geophysikalischen Jahr 1957/58 schufen etliche Wissenschaftszweige kontinuierliche Beobachtungsnetzwerke auf dem land, in der luft, auf dem Meer und im Weltraum. als in den 246 1970er Jahren die Umweltprobleme stärker ins Bewusstsein traten, nahmen Umfang und Bedeutung dieser netzwerke zu. viele waren international bereits lose in Behörden wie dem Umweltprogramm der vereinten nationen, dem Internationalen Wissenschaftsrat oder der Weltorganisation für Meteorologie organisiert. Weniger augenfällig ist vielleicht, dass seit den 1950er Jahren soziale Systeme in aller Welt fortschreitend mit den verschiedensten »Sensoren« – insbesondere Meinungsumfragen und die obligatorische Weitergabe von demografischen, wirtschaftlichen, gesundheitsrelevanten und anderen gesellschaftlichen Daten an staatliche Behörden und die vereinten nationen – »ausgerüstet« wurden. Die rechnergestützte Modellbildung simuliert physikalische oder ökologische Systeme mathematisch. Diese Technik hat eine ebenso bedeutende Rolle bei der produktion von Wissen über das anthropozän gespielt. auf den meisten Gebieten nutzt man die Modellbildung, um ein theoretisches verständnis komplexer, interaktiver Prozesse zu entwickeln, für deren Analyse experimentelle Methoden zu schwerfällig, zu langsam oder ganz unbrauchbar wären. Modelle bieten auch die Möglichkeit, zukünftige Folgen anthropogener oder natürlicher Umweltveränderungen zu prognostizieren; in einigen Bereichen, etwa bei der Klimafolgenforschung, sind vorausschauende prognosen der vorrangige einsatzzweck solcher Modelle. eine ebenso wichtige Dimension der Modellbildung ist ihre anregung zum fächerübergreifenden Dialog in den Wissenschaften. Beispielsweise fanden ab den 1970er Jahren, als der Klimawandel zu einem ernsthaften Forschungsgegenstand wurde, erste tagungen zur »Umweltbiogeochemie« statt, und Ökologen begannen, den Kohlenstoffzyklus im Modell nachzubauen. In den 1990er Jahren integrierten Klimamodellierer erstmals vegetation und andere Formen der Bodenbedeckung in Untermodelle. von Sozialwissenschaftlern ausgearbeitete Modelle sozialer netzwerke, ökonomischer verhaltensmuster und demografischer Veränderungen nahmen eine ähnliche entwicklung. auch hier hat sich in letzter zeit wie in den naturwissenschaften die Modellbildung als plattform interdisziplinärer zusammenarbeit etabliert. ein Beispiel dafür ist die verhaltens247 ökonomik, die mit experimentellen Methoden und unter einbeziehung von Erkenntnissen der Kognitions und Sozialpsychologie die schlichten, gängigen Modelle des »rationalen akteurs« in den Wirtschaftswissenschaften revidieren will. Wie jede art von Wissen über die vergangenheit hängt auch das Wissen über das anthropozän von der Qualität und Quantität der Speicher ab. von früheren Generationen wurden mit den damaligen, inzwischen kontinuierlich weiterentwickelten Instrumenten, Standards und techniken Daten gesammelt, die nun mit den neueren Daten abgeglichen werden müssen. Um die Qualität der Speicher zu bewerten, braucht man Metadaten (»Daten über Daten« beziehungsweise Informationen darüber, wo, wann und wie Messungen vorgenommen wurden). Manchmal sind diese leicht verfügbar, oft aber auch unvollständig oder nicht vertrauenswürdig. In solchen Fällen finden Forscher gelegentlich geniale Mittel und Wege, ihrem Material brauchbare Metadaten abzugewinnen. Beispielsweise zeigten Daten zur weltweiten Oberflächentemperatur der Meere – einer unverzichtbaren variable in der Klimaforschung – für das Jahr 1945 eine plötzliche Abkühlung um 0,3° C. Das Rätsel dieser physikalisch unwahrscheinlichen veränderung klärte sich, als die Forscher alte Handbücher fanden, in denen beschrieben wurde, wie die Messungen auf den verschiedenen Schiffen durchgeführt wurden: Die aufzeichnungen von 1942 bis 1945 stammten hauptsächlich von USamerikanischen Schiffen, die Oberflächentemperaturen direkt in den einlasskanälen ihrer antriebe maßen. Doch nach dem zweiten Weltkrieg gingen die – unisolierten eimern entnommenen – ergebnisse aus britischen logbüchern erneut in die Messdatensammlungen ein. Das Gleiche gilt für sozialwissenschaftliche Daten, etwa Wirtschafts- und Bevölkerungsstatistiken, für deren erhebung es vor 1950 kaum weltweit gültige Richtlinien gab. Daten aus der vergangenheit »schimmern« in dem Sinn, dass viele von ihnen im licht neuer, von der historischen Forschung gelegentlich zutage geförderter Metadaten laufend überarbeitet werden. Infrastrukturen zur erfassung, Modellbildung und Speicherung haben uns mit Wissen über das anthropozän ausgestattet. Die ent248 wickler dieser Infrastrukturen waren vom Systemdenken getrieben – einer enorm produktiven Manie der Wissenschaften um die Mitte des 20. Jahrhunderts. es äußerte sich (unter anderem) in der ausarbeitung von Ökologie- und Klimamodellen in den naturwissenschaften, sowie in der Kybernetik und Systemdynamik auf Seiten der Sozialwissenschaften. zum Beispiel ging es den organisatoren des Internationalen Geophysikalischen Jahres nicht zuletzt darum, die Hypothese eines einzigen physikalischen Weltsystems zu überprüfen, wonach atmosphäre, Ionosphäre, Meere und Festland auf der erde nur in ihrer Wechselwirkung als Gesamtheit untersucht werden können; der enorm einflussreiche »Club of Rome«Bericht Die Grenzen des Wachstums ging aus einer Forschungsgruppe am MIT hervor, die sich auf die Modellbildung von »Weltdynamiken« spezialisiert hatte. Der Technometabolismus im Anthropozän Seit 1950 haben wir Menschen sehr viel mehr über uns selbst als Gesellschaften und als art gelernt, und in einigen wichtigen Fällen haben wir dieses Wissen auch erfolgreich angewandt, um den lauf der Geschichte zu ändern. zum Beispiel führten wissenschaftliche erkenntnisse der 1970er Jahre über die zerstörung der ozonschicht dazu, dass in den 1980er Jahren das Montreal-protokoll und das Wiener übereinkommen zum Schutz der ozonschicht beschlossen wurden, die zahlreiche schädliche chemikalien verboten und wahrscheinlich die erfolgreichsten internationalen abkommen aller zeiten sind. Die ozonschicht hat sich seit 2005 stabilisiert, und man geht davon aus, dass sie sich in den kommenden Jahrzehnten regenerieren wird. ein noch sinnfälligeres Beispiel: Das rasche Wachstum der Weltbevölkerung im 20. Jahrhundert war die Hauptursache der zunehmenden Umweltzerstörung. Doch in den vergangenen 40 Jahren sind die Wachstumsraten kontinuierlich gesunken, was (zum großen teil) mit dem höheren Bildungsstand unter Frauen in aller Welt zu tun. Der bessere zugang zu Wissen wirkt sich direkt auf die Geburtenraten aus. 249 Seit 1950 haben internationale Konzerne gelernt, zunehmend leistungsfähige Informationssysteme zur Erfassung von Produktion und Konsum, angebot und nachfrage, Modewellen, Rohmaterialien und verarbeitungsprozessen einzusetzen. Firmen haben die Datentechnologie außerdem genutzt, um von finanziellen Prognosen bis zur produktgestaltung alles in Modelle zu fassen, und Speichersysteme haben im Spätkapitalismus zur Beherrschung der Logistik beigetragen: es gibt nun genaue und pünktliche Methoden, mit denen man Waren, Dienstleistungen und Geld in komplizierten globalen lieferketten verfolgen, bewegen, fertigen und zustellen kann. Konzerneigene Wissensinfrastrukturen (oft profitierten sie unmittelbar von akademischen und staatlichen) spielten eine Hauptrolle bei der Ausweitung der »Technosphäre«, von Peter Haff definiert als »miteinander verknüpfte ansammlung von Kommunikations-, Verkehrs, Bürokratie und anderen Systemen, die für den Meta bolismus fossiler Brennstoffe und anderer energieträger gebraucht werden«.2 trotz ihrer Beherrschung der logistik schafft es die technosphäre bisher jedoch kaum, ihre abfälle – die durch ihre Umwandlung von energie und Material erzeugten Stoffwechselprodukte, die ihrerseits die Öko- und Geosphäre verändern – wiederzuverwerten. Grundlegendes paradigma der technosphäre ist nach wie vor die ausbeutung von Rohstoffen und ihre Umwandlung in produkte; der abfall aus der produktion und der verbrennung fossiler energieträger ist meist nicht mehr als ein verdrießlicher Gedanke im Hinterkopf, während die entsorgung am ende eines produktlebens den verbrauchern überlassen bleibt. über Märkte internalisiert die technosphäre Rohstoffe und energieträger, aber sie externalisiert abfall als wertloses oder giftiges ärgernis, das ins globale Gemeinschaftseigentum übergeht. Wie schon aus der beiläufigen Erwähnung der Logistik deutlich wird, verarbeitet der Stoffwechsel der technosphäre aber auch Information. Die technosphäre wird mit Daten gespeist und erzeugt wieder andere als Output, und zwar in komplizierten Zyklen der Rückkoppelung und Kontrolle. ein teil ihrer energie dient der verarbeitung von Information. Diese energiemenge ist erheblich und 250 steigt rasch an: 2014 errechnete Greenpeace, dass cloud computing, als land betrachtet, der sechstgrößte Stromverbraucher der Welt wäre. private und gewerbliche endnutzer verbrauchen etwa die Hälfte dieser Menge, Datenzentren weitere 15 bis 20 prozent. zugleich steuert Information – insbesondere wissenschaftliche erkenntnis – den energiestoffwechsel der technosphäre ebenso wie deren unermüdliche Suche nach Rohstoffen und energie. Kreisläufe schließen: vom Systemdenken zu einer neuen ökologischen Logistik Das SystemDenken fällt uns Menschen wegen seiner Komplexität und seiner Rückkoppelungen, die jeder Intuition widersprechen, grundsätzlich schwer. andererseits ist inzwischen eine enorme Bandbreite von SystemDaten ohne Schwierigkeiten verfügbar, und kommerzielle Werkzeuge für die Darstellung von Systemen in Modellen sind der allgemeinheit so leicht zugänglich wie nie zuvor. Der Spielraum für eine nachhaltige Mitwirkung der Bürger am wissenschaftlichen prozessen vergrößert sich rasant. zugleich eröffnet das »vierte paradigma« einer wesentlich datengetriebenen Wissenschaft auf der Basis ganzer Sensorenbatterien, selbst lernender Maschinen und Analysen sehr umfangreicher Datenbestände der Erfassung, Modellbildung und Speicherung neue Dimensionen. Wie könnten diese Werkzeuge, techniken und Daten so verbunden werden, dass dabei nützliches und anwendbares Wissen für den Umgang mit den Herausforderungen des anthropozäns entsteht? Die logistik könnte ein Modell für anthropozäne Wissensinfrastrukturen sein. logistik begann als Buchhaltung. zu wissen, was man einnimmt, was man ausgibt, wie sich die einzelnen posten verschieben und verändern – egal, ob man sie sich als Geld, Menschen, Werkzeuge oder fossilen Kohlenstoff vorstellt – ist der erste Schritt zu einem geschlossenen Kreislauf aus technosphäre und Biosphäre, zur Berechnung der einen in den Begriffen der anderen. Beispiele dafür sind die aufkommenden verfahren der »Kohlenstoffbilanzierung«. Ob mit einem Preis versehen oder nicht: Kohlenstoff dient 251 zunehmend als Währung zur ermittlung der Umweltbelastung durch so gut wie jedes produkt oder menschliches Handeln – nicht nur, wenn dafür Treibstoff verbrannt wird, sondern auch hinsichtlich der zerstörung der Wälder, der »abgase« von Rindern und der Emissionen von Kühlschränken. Der Begriff des »embodied carbon« – gemeint sind Kohlenstoff und andere Treibhausgase, die bei der Herstellung eines produkts anfallen oder die in Form der Kapitalausstattung einer organisation entstehen – ermöglicht die Bilanzierung bestehender posten neben der im arbeitsprozess verbrauchten energie. er umgeht auch den etwas zu einfachen ansatz, die verantwortung nur dem erstverbraucher von energie zuzuweisen. Zurzeit sind die KohlenstoffBerechnungen noch fehlerhaft und als System fragil. Doch in Zukunft könnte eine regelmäßige, standardisierte Kohlenstoffbilanz (neben anderen, ähnlichen verfahren) zur Grundlage neuartiger erkenntnisse werden, die für die verringerung von menschengemachten Schäden am Erdsystem wesentlich sind. eine weitere neue Quelle von Wissen ist paradoxerweise zugleich eine art abfall: »Datenabgase«. eine der großen entdeckungen des ausgehenden 20. und frühen 21. Jahrhunderts war, dass so gut wie jede Informationsverarbeitung nicht nur Daten nutzt, sondern wiederum neue Daten als nebenprodukt erzeugt. Die Internetaktivitäten von Milliarden Menschen – suchen, surfen, herunterladen, posten in sozialen Medien, einkaufen, kommentieren – hinterlassen Spuren (Datenabgase), in denen man Muster entdecken kann. Suchmaschinen wie Google analysieren Anfragen, am häufigsten gewählte Suchergebnisse und Muster in den verknüpfungen zwischen digitalen objekten, um die Qualität ihrer ergebnisse zu verbessern. Sie verwerten intelligentes verhalten von Menschen, wie es sich in den nutzerentscheidungen niederschlägt, um intelligenteres künstliches verhalten zu erzeugen. Die Wiederverwertung von »Datenabgasen« zur aufdeckung von Mustern, trends und individuellen vorlieben ändert das verhältnis zwischen Designern, produzenten, vermarktern, verbrauchern und der zivilgesellschaft in aller Welt. es verändert auch die Wissenschaft. Im Jahr 2014 lobten die US-amerikanischen centers 252 for Disease control ein preisgeld von 75.000 Dollar für die bestmögliche vorhersage von Grippewellen aus. Der preis ging an Wissenschaftler, die Google-Daten zu Suchanfragen grippebezogenen Inhalts mit amtlichen Statistiken auf der Basis von Krankenhausdaten verbanden. Die Kombination der Suchanfragen mit empirischen erhebungen »grippeähnlicher Krankheiten« in den Kliniken ergab eine genauere prognose der Grippewelle von 2013/14 als jede dieser Datenquellen für sich. Das orten von Mobiltelefonen und ihrer Bewegung ist ein weiteres Beispiel für »Datenabgase«. es wurde eingesetzt, um den zusammenhang zwischen Wetteränderungen und aggregiertem Sozialverhalten in Städten zu untersuchen – und noch für vieles andere mehr: Mobiltelefone wurden mit Messfühlern ausgestattet, um Daten zur Umweltverschmutzung in Städten zu erheben, oder sie dienten zur Dokumentation von vogelzügen. nach dem atomunfall von 2011 in Fukushima verteilte das projekt »Safecast« preiswerte Geigerzähler an japanische Bürger, die damit verstrahlte »Hotspots« aufspüren und diese mithilfe von Google Maps und openStreetMap verzeichnen konnten. Diese Daten wurden auch genutzt, um behördliche Datenquellen zu prüfen und deren Glaubwürdigkeit infrage zu stellen. Bürger als Sensoren einzusetzen und gesellschaftliches Handeln als Quelle von Daten über Umweltveränderungen zu nutzen, könnte erstmals so etwas wie neues Wissen für das anthropozän hervorbringen. Wissensinfrastrukturen für das anthropozän könnten nicht nur den energie-, Material- und Informationsstoffwechsel der technosphäre erfassen, in Modelle fassen und visualisieren. Sie könnten diesen Stoffwechsel einschließlich seiner abfälle in Begriffen der Lagerbestände und flüsse endlicher Ressourcen darstellen. Sehr viel partizipatorischere und offenere Formen von Wissenschaft könnten sich verbreiten, Denksysteme demokratisieren und damit zugleich das öffentliche vertrauen in die Wissenschaft stärken. Durch die Verbindung von »Datenabgasen« mit physikalischen und ökolo gischen Informationen könnte eine neue, ökologisch zielgerichtete logistik den verbrauch von energie und Rohstoffen in der produktion verringern, neue arten der Wiederverwertung oder Wiederein253 speisung von Abfall finden und neue Ideen für die Beseitigung von toxischen nebenprodukten, treibhausgasemissionen und anderen Stoffwechselprodukten generieren. Wird es gelingen, diese Infrastrukturen aufzubauen? Können wir es uns leisten, sie nicht aufzubauen? Übersetzung aus dem Englischen von Herwig Engelmann Weiterführende literatur Geoffrey Boulton u. a., Science as an Open Enterprise: Open Data for Open Science, Royal Society, London 2012. Geoffrey C. Bowker and Susan Leigh Star, Sorting Things Out: Classification and its Consequences, MIt press, cambridge Ma 1999. paul n. edwards, A Vast Machine: Computer Models, Climate Data, and the Politics of Global Warming, MIt press, cambridge Ma 2010 paul n. edwards u. a., Understanding Infrastructure: Dynamics, Tensions, and Design. Deep Blue, ann arbor 2007. paul n. edwards u. a., Knowledge Infrastructures: Intellectual Frameworks and Research Challenges, Deep Blue, ann arbor 2013 Peter K. Haff, »Humans and Technology in the Anthropocene: Six Rules«, in: The Anthropocene Review, 1–11 (2014), doi: 10.1177/2053019614530575 Peter K. Haff, Technology as a Geological Phenomenon: Implications for Human Well-Being, Geological Society, London, Special Publications 395 (2013), doi: 10.1144/Sp395.4 Tony Hey, Stewart Tansley, Kristin Tolle (Hg.), The Fourth Paradigm: Data-Intensive Scientific Discovery, Microsoft Research, Redmond Wa 2009. Michael nielsen, Reinventing Discovery: the New Era of Networked Science, Princeton University Press, Princeton 2011. David Weinberger, Too Big to Know: Rethinking Knowledge Now That the Facts Aren’t the Facts, Experts Are Everywhere, and the Smartest Person in the Room Is the Room, Basic Books, New York 2012. 254 anmerkungen 1 2 paul n. edwards, A Vast Machine: Computer Models, Climate Data, and the Politics of Global Warming, MIt press, cambridge Ma 2010. Peter K. Haff, Technology as a Geological Phenomenon: Implications for Human Well-Being, Geological Society, London, Special Publi cations 395, 10.1144/Sp395.4. 255
© Copyright 2024 ExpyDoc