Vanessa Wormer ist Journalistin und kennt sich mit Daten aus. Als Mitgründerin des OK Labs Heilbronn beschäftigt sie sich schon länger damit, wie man mit Daten bessere Geschichten erzählen kann. Im Sommer absolvierte sie das Lede Program an der Journalistenschule der Columbia University in New York und lernte unter anderem programmieren. Seit Kurzem arbeitet sie bei der Süddeutschen Zeitung. Mit uns spricht sie über Journalismus, die Datenszene und was Code for Germany für sie bedeutet.
Das mit der Definition fällt Datenjournalisten immer etwas schwer, wahrscheinlich weil wir noch in der Experimentierphase sind und unsere Arbeit nicht so gern einer starren Definition unterordnen wollen. Ich habe erst vor ein paar Tagen eine Definition gelesen, die ich aber unterschreiben würde: Datenjournalismus ist ein Prozess, an desen Ende eine Geschichte steht, die ohne einen Computer nicht entstanden wäre. Das ist für mich der Kernpunkt meines Jobs: Dass ich Technologie - spezielle Softwareprogramme und Programmiersprachen - nutze, um große Mengen an Daten und Dokumenten zu recherchieren, auszuwerten und aufzubereiten. Man könnte das in meinem Fall auch computational journalism oder einfach Journalismus nennen. Datenjournalismus ist vielleicht nur ein Buzzword. Ich benutze es aber gerne, weil es neugierig macht auf die Methoden und Herangehensweisen, die dahinter stehen.
Erstmal finde ich es wichtig, dass wir unsere eigenen Erkenntnisse aus Datensätzen ziehen können. Dass wir uns also unabhängiger machen von Interpretationen von Behörden, Unternehmen, Organisationen. Und wenn wir das gut können, dann eröffnen sich ganz neue Möglichkeiten für uns Journalisten. Wir können in einen Dialog auf Augenhöhe mit Wissenschaftlern treten. Wir können unseren Lesern und Usern eine alternative Sicht auf die Dinge bieten, abseits vom Mainstream-Journalismus. Ich glaube sogar, Journalismus kann durch datenjournalistische Methoden glaubwürdiger werden.
Journalismus kann durch datenjournalistische Methoden glaubwürdiger werden.
Und persönlich finde ich Journalismus immer dann besonders stark, wenn wir weniger über skandalöse Einzelfälle und mehr über strukturelle Probleme berichten. Das kann Datenjournalismus leisten.
Im Sommer hat mich ein Projekt von ProPublica beeindruckt, weil Recherche und Datenanalyse fast wissenschaftliches Niveau hatten. ProPublica ist ein gemeinnütziges Recherchebüro in New York, die Kollegen haben in jahrelanger Arbeit Daten zu chirurgischen Eingriffen gesammelt, statistisch ausgewertet und einen Score berechnet. In einer Datenbank kann man nun nachsehen, wie häufig Komplikationen vorkommen, und zwar für jeden einzelnen Chirurgen. Für viele Menschen ist das eine lebenswichtige Information. Das Projekt bekam von vielen Seiten Lob – aber auch Kritik. Wissenschaftler haben sich in ihrer Deutungshoheit angegriffen gefühlt, ein kompletter Berufszweig wurde zur völligen Transparenz gezwungen. Natürlich muss man diskutieren, ob eine journalistische Recherche das leisten kann und soll. Aber ProPublica hat damit eine überfällige gesellschaftliche Debatte in den USA angestoßen und eine Richtung aufgezeigt für mehr Transparenz im Gesundheitsbereich. Ich bin gespannt, wann ein datenjournalistisches Projekt in Deutschland eine solche Aufmerksamkeit erzeugen wird.
Klar! Das Scheitern gehört dazu. Die Stolperfallen sind vielfältig und man glaubt gar nicht, wie viele Probleme auftauchen in diesem ganzen Prozess von der Datenrecherche bis zur Veröffentlichung. Mal gibt es keine Daten, mal sind sie unzureichend, oder sie stecken in einem pdf und müssen erst umständlich befreit werden. Aber es hilft, das Ganze step by step anzugehen und andere zu fragen, wenn man alleine nicht weiterkommt. Die ddj- und open-data-community1 ist groß und teilt gerne ihr Wissen. Außerdem kann man auch Misserfolge zum Thema machen: Will eine Behörde die Daten nicht rausrücken? Schreibt darüber.
Ich habe als Online-Redakteurin bei der regionalen Tageszeitung Heilbronner Stimme gearbeitet. Meine Kollegen und ich hatten Lust, öfter digitale Projekte umzusetzen und wir haben Kontakt zur lokalen Open-Data-Szene gesucht. Die beiden Entwickler Felix Ebert und Adrian Stabiszewski haben uns sofort begeistert mit ihren Ideen und Überzeugungen zu Open Data und Civic Tech. Wir veranstalteten dann gemeinsam einen Hackathon und gründeten das OK Lab Heilbronn.
Der Hackathon und das OK Lab waren meine ersten Berührungspunkte mit der Hacker- und Open-Data-Szene. Ich fand den Austausch von Beginn an super inspirierend: So viele Menschen, die ganz selbstverständlich ihr Wissen teilen und gemeinsam an sinnvollen Projekten arbeiten wollen! Von ihnen habe ich vor allem gelernt, Probleme anders anzugehen, als ich es gewohnt war.
Und heute klappt auch das mit der Kommandozeile.
Das fängt damit an, dass ich heute viel selbstverständlicher Technologie nutze, um Prozesse zu vereinfachen. Und im OK Lab habe ich sicher auch gelernt, zwischen den zwei Welten der Techies und der Journalisten zu vermitteln. Im Lab sind ja verschiedene Kompetenzen gefragt. Ich konnte anfangs noch nicht mal die Kommandozeile öffnen, hatte aber trotzdem das Gefühl, dass ich mich irgendwie einbringen kann und Rechercheaufgaben oder die Koordinierung eines Projekts übernehmen kann. Und heute klappt auch das mit der Kommandozeile.
Dieses Jahr wurde mir bewusst, wie cool es ist, durch Code for Germany in verschiedenen Städten eine Anlaufstelle zu haben. Als ich länger in Berlin war, habe ich dort das OK Lab besucht und viele spannende Leute kennen gelernt. Jetzt wohne ich in München und will mich hier im OK Lab einbringen. Und sogar in New York habe ich Leute von Code for Germany und Code for America getroffen. Das Netzwerk funktioniert also ziemlich gut.
Klassischen Journalismus hatte ich selten so konstruktiv erlebt.
Die Entscheidung hat viel mit dem zu tun, was ich eben schon gesagt habe: Es hat mich motiviert, dass in dieser ganzen Datenszene so viele Menschen gibt, die auf einen Hilferuf via Twitter reagieren, die sich ganz selbstverständlich Zeit für dich nehmen, die scheinbar für jedes Problem eine Lösung parat haben. Klassischen Journalismus hatte ich selten so konstruktiv erlebt. Auch das Thema Teamarbeit spielte eine Rolle, das fand ich von Anfang an super: dass man mit seiner Geschichte nicht allein ist, dass man ringen und feilschen muss, am Ende so aber auch gemeinsam das Bestmögliche rausholen kann.
Technologisch getriebener Team-Journalismus mit wissenschaftlichem Impetus – das klingt ziemlich nach der Zukunft oder? Ja, irgendwie sehe ich darin schon viele Ansatzpunkte für zukunftsfähigen Journalismus, sonst würde ich das auch nicht so engagiert verfolgen. Aber ich denke, unsere datenjournalistischen Methoden und Ansätze werden in absehbarer Zeit in den Redaktionsalltag vieler Kollegen übergehen. Die Zukunft des Journalismus sieht ganz bestimmt viel bunter und vielfältiger aus, als ich es hier beschreiben könnte.
Vanessa schreibt regelmäßig über Daten und Journalismus in ihrem Blog #DIGILAB. Bei Twitter heißt sie @remrow. Eine Sammlung von datenjournalistischen Projekten gibt es in diesem Katalog.
ddj = data driven journalism ↩