Die OpenData-Bewegung: Warum ihre eigene Wiege, das Gratis-Web, ihr im Weg stehen wird

Ein Thema, zwei unterschiedliche Meinungen: Mein Besuch bei der OpenData-Konferenz letzten Donnerstag in Zürich und meine anschliessende Lektüre zweier kritischer Blogartikel zur Transparenz-Gesellschaft (Philippe Wampfler) und Echtzeit-Archäologie (Sascha Lobo) offenbarten mir am gleichen Tag zwei kontradiktorische Perspektiven auf dasselbe Phänomen. Die postmoderne idealistische OpenData-Bewegegung beschwört Heilsbringerwirkung durch öffentlich zugängliche Daten. Die Transparenz-Kritiker befürchten einer gläsernen Echtzeit-Datengesellschaft den Zerfall unserer Kultur und Werte. Welche Seite hat nun Recht?

Vereinfacht lautet der Grundkonflikt : Permanenter Veröffentlichungszwang aller Daten zwecks Weltverbesserung versus Recht auf Schutz und Privatsphäre in einer gläsernen Gesellschaft. Beide Meinungen haben legitime Forderungen und Bedenken. Ich halte jedoch beide Postulate etwas für übertrieben und unrealistisch. Viel wichtiger für den richtigen Umgang mit mehr Transparenz scheinen mir zwei rare Ressourcen: Die Kompetenz, öffentlichen Datenquellen richtig zu interpretieren. Und Zeit.

Daten lesen will gelernt sein

Beginnen möchte ich diesen Artikel mit zwei Zitaten der Kritikerseite:

Wampfler zitiert aus dem Büchlein des Medientheoretiker und Philosoph Byung-Chul Han zur „Transparenzgesellschaft“: „Zweitens gibt es in der Transparenzgesellschaft kein Nicht-Wissen mehr und damit auch kein Vertrauen. Wenn man alles weiß, ist Vertrauen unnötig. Es gibt auch keine Wahrheit und keinen Schein mehr, alles ist wie es ist“

Und noch einen Punkt von Sascha Lobos Kolumne „Aus dem Archiv des Grauens“: „Es wird ekelhaft werden, wenn die jüngste, politische Geschichte digital immer schneller und einfacher nachvollziehbar wird, die absurde Unfähigkeit, die unfassbaren Mauscheleien, das unwürdige Kleinklein. Vor allem aber wird es für jeden recherchierbar bleiben. Informationen, die früher in Archiven nur für Experten und Redakteure zugänglich waren, bleiben öffentlich gespeichert und sind in Millisekunden nach Stichwort auffindbar. Wer zur Ermittlungsarbeit über den Nazi-Terror der NSU ein wenig herumgoogelt, wird darüber stolpern, dass die Hamburger Polizei einen Hellseher engagierte“

Beide kulturpessimistischen Zukunftsszenarien haben ihre Berechtigung. Doch bezweifle ich ihr Eintreffen. Ich glaube weder an das plötzliche Aufkommen massenweiser eifriger Amateur-Webforscher noch an die Möglichkeit„des Nicht-Wissens“ infolge vollständiger Transparenz. Die Offenlegung aller Verwaltungsdaten alleine wird keine Revolution auslösen. Wissen ist schliesslich ein schöpferischer Akt und Produkt eines Denkprozesses.

Ein Beispiel aus eigener Erfahrung: Als ich auf die kryptischen Abstimmungsprotokolle der Parlamentsdienste gestossen bin, benötigte ich zuerst ein paar Minuten bis ich die + und – Positionen auf korrekte Weise der Positionen (JA/NEIN) unseren Nationalräten zuordnen konnte. Dann wurde mir bewusst, welche immenses Potenzial eine ansprechende Aufarbeitung des Entscheidungsverhaltens unserer Nationalräte (inklusive den Fakten, ob sie überhaupt anwesend waren) hätte und unsere Wahrnehmung der Politik in Bundesbern beeinflussen wird. Um diese Idee umzusetzen, braucht es den Konzepter (in diesem Fall ich), den Graphic Designer, den Entwickler und Programmierer. Und am Schluss die Verbreitung und Veröffentlichung via Online-Kanäle. Ein arbeitsteiliges Gemeinschaftwerk also. Erst wir, die Entdecker, Übersetzer und Vermittler dieser Daten, die schon lange online auf der Website der Parlamentsdiensten verfügbar waren und in ihrer maschinenlesbaren Form kaum jemanden interessierten, machten das politische Geschehen auf anschauliche Weise für jedermann anschaulich.

Das „Weiterverarbeitungsrecht“, neben dem offenen Zugang von Behördendaten gemäss dem Referenten Daniel Dietrich die zweite wesentliche Komponente für OpenData, erfordert neben dem Interesse an der Weiterverarbeitung also eine weitere wesentliche Voraussetzung: Die Kompetenz der richtigen Aufbereitung und Visualisierung.

Auch die Aussage der Zürcher Finanzdirektorin Maja Menn, die eine eher kritische Haltung gegenüber den Forderungen der Open Data Government-Community an der Konferenz einnahm, ist mir in diesem Zusammenhang hängengeblieben: „Eine Behörde wie die Finanzverwaltung hat die Aufgabe, die Komplexität zu reduzieren und in ihren Publikationen ,intelligent zu trivialisieren‘. Vollständige Transparenz bedeutet daher auch die Wiedergabe vollständiger Komplexität“. Die Komplexität der Daten in ihrer Gesamtheit würde also leiden, wenn sich jeder daran „vergreifen“ und damit rumbasteln würde.

Gratiskultur erschwert Nachhaltigkeit von OpenData-Projekten

Es braucht also die hellen Köpfe und Cracks, die sich dem „Crowd Sourcing“-Gedanken verpflichtend die Informationen vorsondieren, Wichtiges herausextrahieren, filtern, verarbeiten und gestalten. Es braucht –wie in der Konferenz von verschiedenen Speakers gefordert wurde- für eine produktive OpenData-Industrie gar eine Bildungsoffensive, beispielsweise dem Aufbau sogenannter „Data Schools“.

Die Institutionalisierung und Professionalisierung der aufkeimenden Bewegung wird massgebend für den Durchbruch von OpenData werden. Denn was passiert, wenn der Pioniergeist der visionären OpenData-Community erlahmt? Sind die entstandenen Ideen und Konzepte der OpenData-HackDays überhaupt noch nachhaltig?

Gerade das Problem der Entschädigung des Mehrwerts durch OpenData-Projekte ist meiner Meinung nach auf den Entstehungsort der „Open Data“-Bewegung zurückzuführen:  Im Internet. Wo die meisten Informationen gratis verfügbar sind.

Wer bezahlt nun diese Dienste, die Apps, die NICHT ein Bürgerbedürfnis mit einem unmittelbaren persönlichen Nutzen wie den Wetterdiensten, den Information nach umliegenden Unfallstellen etc. erfüllen? Wer sind die Abnehmer? Die Behörden? Jene Institutionen, die man in einem langwierigen Prozess zur Offenlegung ihrer Dokumente zwingen musste, sollen im Sinne eines gemeinnützigen öffentlichen Interesses für die Kosten der Verarbeitung aufkommen? Besteht überhaupt ein legitimierbares öffentliches Interesse nach offenen Behördendaten? Oder soll das Zusammenspiel von Angebot und Nachfrage darüber entscheiden? Solange die Marktteilnehmer und die Geschäftsmodelle noch nicht definiert werden können, wird wohl kaum ein florierender Wirtschaftszweig aus der Bewegung sich entwickeln und etablieren können. Die Empfehlung des Directors der Open Knowledge Foundation Rufus Pollock an der Konferenz, nicht aufs Geratewohl Daten zu sammeln, sondern problemlösungsorientiert vorzugehen und Daten „on demand“ zu veröffentlichen, halte ich daher für einen richtigen Ansatz.

Stell Dir vor, es gibt überall Daten…Und keiner schaut hin

Eine andere mögliche kontraproduktive Wirkung von Opendata mag ihre zunehmende Nicht-Wahrnehmung sein: Werden wir vielleicht „oberflächlicher“, wenn alle gesammelten Daten öffentlich und frei im Web diffundieren? Führt eine Omnipräsenz von Protokollen, Tabellen, Listen zur Abstumpfung, so dass wir ihnen gegenüber sogar „taub“ werden? Ich glaube nicht, dass frei flottierende abstrakte Behördeninformationen über Budgetposten dieselben Effekte haben werden, wie die  Dauerberieselung durch omnipräsente Werbebotschaften. Permanente provokative – wie zum Beispiel sexualisierte oder gewaltverherrlichende- Werbung bewirkte in den letzten Jahren bekanntermassen eine gewisse Abstumpfung in unseren Köpfen gegenüber jenen Reizen.

Bei Rohdaten des Staats verhält es sich wahrscheinlich anders: Die Masse wird diese nämlich schlichtweg ignorieren. Vielleicht mag ich von einem zu negativen Menschenbild ausgehen. Doch auch hier argumentiere ich wieder mit der notwendigen „man power“, die zuerst in die Wertschöpfung von OpenData investiert werden muss. Die Zeit und Musse für die Verarbeitung komplexer Informationen, werden nur wenige Personen und Institutionen aufbringen. Daten einfach zum Selbstzweck zu publizieren, ohne damit ein konkretes Informationsbedürfnis zu befriedigen, finde ich daher weder gefährlich noch von grossem Nutzen.

Daten-Architekten werden wichtiger als die Archäologen

Den Hauptgrund für diese Gleichgültigkeit orte ich wiederum in der naturgemässen Keimzelle des OpenData-Schauplatzes, im Web 2.0: Je schnelllebiger und dynamischer unsere Informationsgesellschaft, je mehr Social Media unser Aufmerksamkeitsvermögen und unsere Auffassungsgabe prägen und je nervöser wir durch langatmige Klickpfade werden, desto seltener, gefragter und relevanter werden diejenigen „Geeks“ sein, die sich diesen Informationen geduldig annehmen. Besonnene, ruhige und nachdenkliche Wissensträger, die die Daten verknüpfen, interpretieren und Zusammenhänge darin erkennen.

In einem Echtzeit-Datendschungel -oder wie es Sascha Lobo nennt„Echtzeit-Archäologie“– braucht es die Denker, die eine Architektur aus den Informationen fabrizieren. Und die Leute, die Fähigkeit mit sich bringen, diese Gerüste immer wieder kritisch zu hinterfragen. Beide Gruppen müssen aber für ihre Denkarbeit auf irgendeine Art und Weise entlöhnt werden.

4 Gedanken zu “Die OpenData-Bewegung: Warum ihre eigene Wiege, das Gratis-Web, ihr im Weg stehen wird

  1. Zunächst einmal sollte man darüber nachdenken, dass auch in Europa gelten sollte wie in den USA, dass Dinge, die der Steuerzahler bezahlt, der Gemeinschaft gehören (und nicht der Verwaltung oder dem Staat). Diesem Umstand verdanken wir diese unsere Internetsoftware, die von den USA in die Public Domain gegeben wurde. Empirisch kann gesagt werden, dass dabei nach dem Verblassen der Anfangsaktivisten mitnichten die Aktivitäten eingeschlafen sind, wie hier vermutet wird.

    Die hier vorgetragenen Bedenken sind normale Äußerungen mitteleuropäischer Bedenkenträger. „Es ist alles eitel“ sagte Andreas Gryphius schon im Mittelalter.

    Tatsächlich aber sehen wir zum Beispiel in Google Earth Milliarden Daten öffentlich, kostenlos zur Verfügung stehen (siehe links bei Google Earth die Selektoren).

    Pessimismus für eine Aktivität, die in Deutschland aktiv von der Regierung bekämpft werden, ist nicht repräsentativ für den Souverän.

    Ich nehme immer gerne folgendes Szenario, das bisher noch nicht ansatzweise diskutiert wird, weil die Medienstars wie Lobo darüber keinen Überblick haben und der bezahlt wird, krasses zu verkünden (mit nützlichem, wo man arbeiten muss bekommt man keine Leser 🙂

    Ich kann mir vorstellen, dass man in Google Earth in einen Interface, das Millionen Deutsche oft nutzen, sinnvoll die Daten darstellen kann. Stellen Sie sich eine Familie mit zwei Kindern und einem Opa in eine neue Stadt kommen:

    -Wo ist eine Kita für ein Kind? Wie sind Kindergärtnerinnen qualifiziert (Entgeltgruppen S2-S18 TvÖD-VKA)? Welche Zusatzangebote gibt es? Zu welchen Preisen?
    -Welche Schulen gibt es, wie sind die Lehrer geraten (siehe Spickmich), was sind die Ergebnisse der Qualitätsinspektionen, welche Zensuren erreichen Schüler in den Abschlüssen, was ergaben die Inspektion mit PISA und anderen?
    -Welche Ergebnisse haben die Qualitätsinspektionen des MDK bei den Pflegeheimen ergeben, wenn Opa stationär in Pflege muss?
    -Welche Krankenhäuser, Ärzte sind in der Gegend (alle staatlich überwacht)?
    -Welche Kultureinrichtungen mit welchem Programm finanziert der Staat in der Umgebung (Opern, Theater, Sporteinrichtungen)?
    -Wo sind die Zahlen aus den Gutachterausschüssen für Immobilienverkäufe, wie hoch sind die Mieten nach Mietspiegel, wie hoch ist die Belastung an Schadstoffen (S02, Schwebstoffe, Emissionskataster…)?

    So was kann bei Umzügen so alltäglich werden wie der Buchkauf bei Amazon, die Banküberweisung online oder das Lesen einer kostenlosen Zeitung wie Spiegel Online 🙂
    Die Erhebung der Daten ist längst bezahlt, die Darstellung bekommen wir auch hin. Wenn ion Europa weiter wie bisher gemauert wird, machen es halt wieder die Amerikaner wie bei Google, Facebook, Amazon, you name it.

    Das sogenannte „Gratisweb“ steht niemandem im Weg. Die Kostenlos-Kultur ist neben anderen seit 2000 Jahren Bestandteil der europäischen Kultur:
    http://wk-blog.wolfgang-ksoll.de/2012/05/04/wo-kommt-die-kostenlos-kultur-her/

    Der ehemalige Ministerpräsident von Nordrhein-Westfalen Brudner Johannes Rau fasste es 1980 in einen enfachen Slogan:
    „Mut zur Zukunft!“

  2. Vielen Dank für Deinen Kommentar. Natürlich erleichtern alle diese Informationen den Einstieg in einer neuen Umgebung. Ich kritisiere nicht die Ziele der Open Data-Community. Diese sind unbestritten, denn solche lokalen Informationen generieren einen unfassbaren Mehrwert. Auch sollten diese Informationen längst zum Standard erhoben werden und als Bürgerrecht proklamiert werden. Ich begrüsse die Forderungen der Community und den von ihr ausgehenden Druck auf die staatlichen Entscheidungsträger und Behörden.

    Ich zweifle lediglich an der Umsetzung, bzw. befürchte grosse Widerstände und Leerläufe auf dem Weg dahin. „Die Darstellung bekommen wir auch hin“ Genau an diesem Punkt harzts meiner Meinung nach. Die Darstellung ist mit Aufwand und Expertise verbunden. Diese Dienstleistungen müssen von Privaten erbracht werden, denn der Staat seht den unmittelbaren Nutzen – wie Du bereits erwähnt hast in Mitteleuropa- noch nicht. Auch wenn die Erhebung bezahlt ist und es ein Leichtes wäre, die Daten in Rohform aufzuschalten, so benötigen die konkreten Anwendungen, Apps, Tools etc. Zeit und Ressourcen.

    Solange der Staat noch kein Interesse an Public-Private-Partnerships und als Auftraggeber für diese Visualisierungs- und Nutzungsformen fungiert, wird es für die interessierten Dienstleister schwierig, den betriebenen Aufwand angemessen zu entschädigen. Die Resultate sindin dem Sinne öffentliche Güter für das Gemeinwesen sein. Theoretisch müsste der Konsument, der Bürger und damit auch der Steuerzahler dafür aufkommen.

    In Amerika ist man diesbezüglich einiges weiter. In Europa- insbesondere im deutschsprachigen Raum- sträubt sich der Staat gegen noch mehr Offenheit und Transparenz. Die Veröffentlichung wird insbesondere als zeit- und ressourcenintensiven Aufwand empfunden und mit Erwartungen überfrachtet. So hoffen viele Verwaltungen, alle Bürger wissen diese Informationen im konkreten Altlag gleich zu nutzen und damit zu interagieren. Wird dann keine flächendeckende Nutzung erreicht, sei es der Aufwand nicht wert. Die mühselige Huhn oder Ei-Frage. Erst der Nutzen legitimiert die Offenlegung der Daten, obwohl es umgekehrt sein müsste. Ideen und Zusammenhänge können schliesslich erst bei vorhandenen Informationen entwickelt und interpretiert werden.

    Aber die Anwendung und Orientierung an Behördeninformationen braucht- wie auch beim E-Voting- Einübungszeit. Irgendwann werden mobile verfügbare lokale Informationen über die KITA und Krankenhäuser eine Selbstverständlichkeit und Standard jeder Kommune sein. Hier dauerts einfach noch ein bisschen länger.

  3. Ich glaube es geht schneller als wir denken. Noch 2006 war ich als Redner auf einem Kongress, wo die deutschen Karthografen trauerten, dass sich ihre Daten schlecht verkaufen ließen:
    http://www.kirschbaum.de/shop/artikel.php?id=207&ziel=themen

    Mittlerweile hat es sich gedreht. Vorigen Monat hat der Bund in D beschlossen, dass seine karthografischen Daten frei verfügbar zu sein haben (auch wenn manche verwaltungsinternen Träumer die Verbreitung öffentlich bezahlter Güter als Datenbank nach UrhG verhindern wollen. Sie werden verlieren. Ansehen. Reputation. Die Hoheit über die Daten der Bürger. Sie werden vom Bürger gestaltet werden, wenn sie selbst nicht in der Lage sind.)

    Ein Beispiel: Google hat früher Geodaten privat zugekauft für Maps und Earth. Heute kriegen sie die vom Bundesamt für Karthografie. Siehe: http://maps.google.de/ GeoBais-DE/BKG

    Ich weiss nicht, ob viele das verfolgen wie Google Earth sich verändert (Siehe Eigenwerbung:
    http://wk-blog.wolfgang-ksoll.de/2011/08/14/die-welt-mit-google-earth-erforschen/ )
    Aber das ist dramatisch,w as da abgeht.

    Bisher ist es so, dass die naive Deutung von Open Data schon glücklich ist, wenn man mit viel Mühsal für ein einzelnes Kaff eine Karte mit Aufstellungsorten für die Hundesscheisse-Sammeltüten hinbastelt. Das ist unprofessionell und wird von der Verwaltung tradiert durch hirnrissige Wettbewerbe mit 20.000 € Preisgeld, wo dann behauptet wird, die Verwaltung wäre zu blöd, zu wissen, was sie hat udn was sie rausgeben könnte und man sich mit Trivialiäten die Open Data Plage vom Hals hält. 🙂

    Was derzeit in UK abgeht ist dramatisch. Die haben 25 Mio Pfund erst mal gegeben für eine Seed-Finanzierung. Die haben sich die Mitarbeit von Tim Berners-Lee zugesichert. Wer dahinter auf dem Festland zurückfällt, schadet den Bürgern. Arroganz funktioniert nur eine gewissen Zeit: siehe ACTA oder Merkel.

    Den Hinweis mit dem E-Voting teile ich überhaupt nicht. Alle Experimente damit (auch als hintertürige Wirtschaftsförderung für die Kartenindustrie) sind in D gescheitert. Es wird kein E-Voting geben. Siehe „Der König von Deutschland“). Das schlimme daran ist, das keinerlei Nutzenberechnung (Business Case) gerechnet würde, wie es Briten fordern. Das ist den Aufwand nicht wert. Nebenbei: das E-Voting wird auch rechtlich überschätzt: bei ACTA war es nicht wichtig, wer zuletzt die repräsentative Hand gehoben hat, sondern nur, wie der Souverän darüber diskutiert hat. Demokratie ist keine technische Frage des Abstimmungsmechanismus sondern der Kommunikation des Souveräns.

    Wenn Du aber eine Karte hast, auf der Du auf einen Blick siehst, wie der Gradient in Berlin verläuft auf dem die Quadratmeter-Miete (oder auch qm-Kaufpreis) von Westen im Grunewald von über 10 €/qm nach Osten in Köpenick auf unter 5 €/fällt und Du dann noch (möglicherweise in zeitlicher Entwicklung) die SO2- und Schwebstoffbelastung Deiner Hütte durch einfaches Klicken auf eine Blick sieht, dann hast Du dramatische Eingriffe in Immobilien-Märkte. Dann bekommt der Marktteilnehmer die Transparenz, die er als homo oekonomicus theoretisch haben muss. Mit von den Steuerzahler bezahlten Daten. Vor dieser Transparenz haben viel Angst und labern uns die Taschen voll. Es wird nichts nutzen: vor 25 Jahren bin ich angegiftet worden, Internet sei nur was für pickelige Colatrinker, die ihre Tastaturen mit Kekskrümeln versauen 🙂

    Was hilft, ist immer der Blick nach draussen (benchmark). Westlich von uns geht es lockerer und schneller zu. Und deshalb sind da die großen Internetfirmen, die wir nur noch mit Datenschutz-Blödsinn von grünen Fundis in Kiel bekämpfen, statt aufzuwachen.

    Bei Google oder Facebook steht die „Gratiskultur“ nicht im Wege. Die haben intelligente Geschäftsmodelle, die sie liefern lassen. Einfach so.

  4. Hoffen wir, dass das Bewusstsein für offene Daten wächst.

    Bezüglich eVoting muss ich Dir als Schweizerin widersprechen. Ihr werdet nicht in derselben Frequenz zur Urne gebeten wie wir (4mal pro Jahr). Bei uns lohnt sich die elektronische Stimmabgabe allemal. Eine beträchtliches Wählersegment, welches am Sonntag früh nicht aufsteht und zu Hause nicht über eine Briefmarke verfügt, wird damit bestimmt mobilisiert. Aber auch hier benötigt die digitale Nutzung eine gewisse Zeit, bis sie sich in der Praxis etabliert hat. Zuerst mag es Verschiebungen bei der Abstimmungsform abgeben (Briefwähler werde zu eVoting-Wählern, keine substanzielle Erhöhung der Stimmbeteiligung). Aber nach einer gewissen Zeit werden die Leute routinierter im Umgang mit eVoting und greifen öfters darauf zurück. eVoting hat sich dann als Alternative zum Gang an die Urne und brieflicher Abstimmung bewährt.

    Mein nächster Artikel wird sich wahrscheinlcih über die Bedenkenträger staatlicherseits und über die peinlichsten Ausreden und Blockaden gegen die Einführung von eVoting drehen.

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s