Wenn KI auf NGOs trifft

Wie man Weltenretter zu Datenanalysten macht und umgekehrt.

Big Data und künstliche Intelligenz sind die neuen Alleskönner. Doch wie genau können NGOs und Zivilgesellschaft die Technologie nutzen, um soziale Probleme zu lösen? Daniel Kirsch, Mathematiker und Gründer von Data Science for Social Good Berlin, erzählt er im Interview, wie KI Kindern in Tansania hilft, welche Schätze er auf Data Dives findet und was das alles mit Wirkungsmessung zu tun hat.

- Autor: Dennis Buchmann

Dieser Text ist im trendradar_2030 Magazin erschienen (PDF Download).


Herr Kirsch, künstliche Intelligenz klingt immer so überwältigend, als gäbe es Maschinen, die denken können. Ist das der Grund, warum sie sich etwas bescheidener als Data Scientist bezeichnen?
Nun ja, künstliche Intelligenz ist eben ein sehr schwammiger Begriff. Aber selbst Data Science wird ganz unterschiedlich benutzt. Beide Begriffe sind auch krasse Marketingbegriffe. Denn wenn beispielsweise eine Firma von künstlicher Intelligenz spricht, hat das mit Intelligenz, wie wir sie vom Menschen kennen, sehr wenig zu tun. Vielmehr geht es bei KI um die Automatisierung und Lösung bestimmter Probleme bzw. Aufgaben – die allerdings immer kognitiver anmuten.

Künstliche Intelligenz - was bedeutet das für den Menschen?

Künstliche Intelligenzen, also Algorithmen, sind im Gegensatz zum Menschen leistungsfähig genug, um Unmengen von Daten zu analysieren. Warum haben viele Menschen Angst davor?

Wichtig ist, zwischen starker und schwacher KI zu unterscheiden. Vor der starken KI haben viele Leute Angst, weil sie, so die Annahme, eines Tages schlauer sein könnte als der Mensch. Was dann? Über starke KI kann man also auch super philosophieren, weil wir dann viel über unsere Werte nachdenken müssen, die wir sonst manchmal ein bisschen vergessen. Aber die starke KI gibt es noch nicht. Und es ist fraglich ob und wann es sie geben wird. Die schwache KI ist jene, mit der wir heute schon arbeiten, die schon heute in Form von IBMs Watson, AlphaGo oder anderen Programmen in unserem Alltag präsent ist.

 

Müssen wir uns nicht auch schon bei schwacher KI fragen, wer hier eigentlich welche Entscheidungen mit welchen Folgen trifft?

Absolut. Transparenz ist hier ganz wichtig, besonders für jene Menschen, über die algorithmisch entschieden wird. Ich war neulich in Stanford auf der Data-on-Purpose-Konferenz, und die war durchzogen von diesem Thema. Wie können die Betroffenen zu Wort kommen und gehört werden? Nicht zu vergessen die Menschen, die in den Daten enthalten sind, mit denen algorithmische Entscheidungen informiert oder trainiert werden. Bei dieser Diskussion sind wir noch ganz am Anfang, und ich habe auch keine Lösung. Um so wichtiger, dass wir diese Diskussion jetzt führen. Schon jetzt und zunehmend treffen Algorithmen Entscheidungen, die Konsequenzen für jeden von uns haben.

 

Was also tun? Es gibt zivilgesellschaftliche Initiativen wie Algorithm Watch. Offenlegungspflichten oder neue Gesetze sind auch denkbar. Oder unabhängige Algorithmenprüfer, die vom Prinzip her Wirtschaftsprüfern ähneln. Wie schätzen Sie diese Möglichkeiten ein?

Zu den regulatorischen Aspekten kann ich sagen: Algorithmische Entscheidungen werden auf vielen Mikroebenen getroffen, und es wäre mit einem unfassbaren Aufwand für jedes Unternehmen verbunden, da wirklich alles offen zu legen. Das könnte lähmend wirken. Es geht also, wie so oft, um den Mittelweg: Wie kann man die betroffenen Menschen ausreichend schützen und den Software-Entwicklern gleichzeitig jenen Freiraum lassen, in dem Innovation weiterhin möglich ist?


Wie können NGOs Trends wie Künstliche Intelligenz und Data Science für sich nutzen?

Gute Frage, nächste Frage: Warum haben Sie 2015 Data Science for Social Good gegründet?

Data Science wird immer relevanter. Weil das Thema immer noch stark gehyped ist, sind Datenanalysten auch entsprechend teuer. Meist können sich nur große Unternehmen solche Leute leisten. Oder Start-ups, bei denen die Mathematiker mit dem Lottoticket der Beteiligung incentiviert werden. Alles sehr spannend. Aber man rettet nicht unbedingt die Welt, wenn man Menschen dazu bringt, auf Werbung zu klicken. Da sitzt viel Geld drin, aber Geld ist eben nicht alles. Ich wollte DataScience-Methoden schon immer auch in Bereichen einsetzen, die gesellschaftlich wertvoll sind, die einen positiven Impact auf die Welt haben. Dann stieß ich auf Datakind, eine Organisation aus den USA, die NGOs an das Thema Data Science heranführt. Ich hab mich damals gefragt: Warum gibt es so etwas nicht auch in Deutschland? Also informierte ich mich und traf Leute aus dem Bereich, Leute, die ein Datakind-Chapter in Deutschland gründen wollten. Das hat nicht geklappt, aber hey, man braucht doch kein Datakind-Chapter, um Data Science for Social Good zu machen! Also gründeten wir DSSG Berlin.

 

Was genau macht DSSG?

Ganz ähnliche Dinge wie Datakind: Wir wollen sozialen Organisationen einerseits den Sinn und Nutzen von Data Science nahebringen. Andererseits wollen wir den Data Scientists klar machen, dass sie mit ihren Fähigkeiten auch Gutes tun können. Außerdem lösen wir konkrete Probleme der NGOs, etwa auf Data Dives.

 

Flossen an und dann abtauchen in die Welt der Daten?

So in etwa. Aber wir lösen auf den Data Dives nicht nur konkrete Datenprobleme mit den NGOs. Diese Events funktionieren vor allem auch sehr gut, um NGOs und Data Scientists für das Thema und füreinander zu begeistern. So haben beide NGOs unseres ersten Data Dives 2015 später Datenexperten eingestellt bzw. intern Verantwortlichkeiten für das Thema vergeben.

Viele NGOs verunsichert das Thema Data Science, vielen erscheint es noch nicht als besonders wichtig. Wie finden Sie datenaffine Organisationen für Ihre Dives?

Noch gehen wir auf die Non-Profits zu und versuchen, ihnen das Thema einzupflanzen. Wir stellen uns beispielsweise über große E-Mail-Verteiler von Stiftungen oder anderen Institutionen vor. Sehr, sehr viele Non-Profits sagen dann erstmal: Mmh, nee, wissen wir nicht, wir verstehen auch nicht so recht, was ihr da macht, ob das relevant für uns ist. Wir denken aber, dass das Thema für viele NGOs relevant sein müsste, immer mehr von ihnen arbeiten ja auch digital, es gibt da also Daten. Aber ob die genutzt werden, um die Prozesse zu optimieren? Das bezweifle ich. Deshalb versuchen wir jetzt zunehmend, die NGOs auf ihrem Weg hin zu mehr Datenorientierung zu begleiten. Bei vielen NGOs merken wir auch, dass sie zunächst eine Strategie brauchen, um überhaupt eine Vorstellung von Data Science bekommen zu können. Um Stellen zu identifizieren, an denen Daten überhaupt erst einmal erhoben werden sollten. Dafür veranstalten wir jetzt Data Impact Mapping Workshops, sei es mit Ackerdemia oder der Berliner Tafel, um dieses Potential auszuloten.

Data Dives als Problemlösungsansatz

Haben Sie ein Beispiel der Probleme, die auf einem Data Dive gelöst werden?

2015 haben wir auf unserem ersten Data Dive eine Wirkungsanalyse für Jambo Bukoba gemacht, die Kinder in Afrika mit Sport stärken wollen. Zwar hatte die NGO kein Geld, um randomisierte kontrollierte Studien zu machen. Es gab aber offene Daten zu den Abschlussnoten und -quoten aller Grundschulen in Tansania, weil die Weltbank dort mal ein entsprechendes Programm gefahren und die erhobenen Daten zum Glück veröffentlicht hat.

 

Marc Lepage, UNDP Africa Knowledge and Innovation Advisor, sagte in einem Interview, dass die meisten Lösungen für Entwicklungsprobleme auf der Website der Weltbank stehen – nur liest sie niemand. Also fast niemand.

Haha, genau, wir haben in diesem Fall mit den Tansania-Schuldaten der Weltbank und den Daten zu den Maßnahmen, die Jambo Bukoba umsetzt, auf dem Data Dive eine Wirkungsanalyse gemacht: Was funktioniert, was nicht? Im Vorfeld haben wir die Daten aus dem Netz gescrapt, gesäubert und in Form gebracht – die Daten zu vervollständigen, war ganz schön viel Arbeit. Es gab zwar eine Menge Excel-Tabellen, die waren aber nicht ganz konsistent, dann fehlten bestimmte Daten, da mussten in Tansania die entsprechenden Leute gefunden werden, die sich erinnern konnten. Nachdem wir die Daten zusammengebracht haben, konnten wir zeigen, wie sich Abschlussnoten und -quoten im Nachgang bestimmter Maßnahmen entwickelten, bspw. nachdem Lehrer fortgebildet wurden. Interessant war auch zu sehen, dass die Interventionen einen Einfluss auf die Diskrepanz zwischen Jungen und Mädchen hatten. Mädchen sind im südlichen Afrika oft benachteiligt und hängen deshalb in der Schule oft zurück. Aber dort, wo die Sportbildungsprogramme von Jambo Bukoba liefen, in denen Gleichberechtigungsthemen eine Rolle spielen und das Selbstbewusstsein von Mädchen gestärkt wird, verringerte sich diese Diskrepanz. Schön, dass diese Sportbildung offensichtlich irgendeine Art Wirkung zeigt.

 

Sie konnten aber nicht sicher sein, dass die entdeckte Korrelation auf einem kausalen Zusammenhang beruht, nicht wahr?

Nein, weil es keine randomisierte Studie war. Aber die Ergebnisse taugen als interessante Indikatoren. Viel besser noch: Die Leute von Jambo Bukoba haben sich ganz intensiv mit den Datenanalysten ausgetauscht und sich gefragt, wie sie nun eine hieb- und stichfeste Analyse machen können, wie sie richtig randomisieren können. Sechs Monate später haben wir auch erfahren: Jambo Bukoba hat eine neue Stelle geschaffen für Wirkungsmessung und Evaluation. Darum geht es uns ja: Bewusstsein schaffen, und Schrauben in den Köpfen der Menschen drehen. Und das haben wir bei Jambo Bukoba ganz offensichtlich geschafft.

 

Tolle Geschichte! Haben Sie noch ein Beispiel?

Die Deutsche Krebsgesellschaft hat das Problem, dass sie immer ganz viel wissenschaftliche Literatur screenen muss. Die Frage, die sich die Krebsstiftung stellte: Kann man das nicht teilweise automatisieren? Kann man mir ein Modell sagen, welches Paper zu welchem Thema ich zuerst lesen soll? Es zeigte sich, dass ein Algorithmus in diesem Fall erstaunlich vielversprechend priorisieren kann. Interessant ist, dass wir es hier mit einem wirklich prädiktiven Problem zu tun hatten. Bislang hatten wir viel klassische Statistik und Natural Language Processing oder explorative Datenanalyse wie bei SchulePlus gemacht. Jetzt war aber wirklich ein Vorhersagemodell dabei. Also Textanalyse mit Klassifikation durch ein prädiktives Modell. Während die meisten NGOs nur vergleichsweise einfache mathematische Werkzeuge brauchen, spielten wir hier in der Königsklasse der Data Science. Da freut sich der Data Scientist!

 

Die Krebsgesellschaft befragt jetzt also morgens immer ihr Paper-Orakel?

Wir konnten auf dem Data Dive zwar nur einen Proof of Concept erarbeiten. Aber wenn wir der Krebsgesellschaft die Spezifikationen gut aufbereiten, können sie sich damit um Funding bewerben und dieses Tool wirklich bauen und implementieren und dadurch im Idealfall eine Menge Arbeitszeit sparen.

 

Und dann machen Sie das noch Open Source und dann haben alle was davon!

Genau, das wäre ideal!

Auf dem Weg zur Lean Charity?

In einem Ihrer Blogposts sprechen Sie von Lean Charities. Was meinen Sie damit?

Ich bin Mathematiker, ich steh total auf Evidenz und Experimente. Und in der Start-up-Welt gibt es diese Lean-Start-up-Bewegung, die Unternehmen als eine Serie von Experimenten versteht, um ein Produkt an das anzunähern, was Kunden wollen. Man hat dabei eine Anfangsannahme, die Value Proposition, die man validieren muss, indem man ein sogenanntes Minimal Viable Product auf den Markt wirft. Dann guckt man, wie die Kunden reagieren, was man ändern muss. Das iteriert man, bis der sogenannte Product Market Fit erreicht ist. Ich finde diese Idee total spannend, weil Entscheidungen hier evidenzbasiert getroffen werden. Und ich glaube, dass sich Wohltätigkeitsorganisationen einiges abgucken können.

Geht es Ihnen um Wirkungsmessung?

Genau, die Non-Profit-Welt wird ja auch immer wirkungsorientierter. Wenn man beispielsweise das Kursbuch Wirkung von Phineo liest, denkt man oft: Das ist eigentlich wie bei einem Lean Start-up. Ziele und Indikatoren definieren, intervenieren und gucken, ob man die Ziele erreicht hat und entsprechend nachsteuern – solche Iterationen sollten Non-Profits auch machen. Die eigentliche Idee dahinter: Wie lernt man als Organisation? Diese Frage ist extrem wichtig, egal ob als Unternehmen oder NGO, da man sich ständig an die sich ändernden Umweltbedingungen anpassen muss. Man kann nicht behaupten: Ich mache jetzt das, und genau das ist richtig. Denn niemand weiß, was richtig ist. Wenn ich Datenanalysten in NPOs bringe, möchte ich mit ihnen genau solche Gedanken in die NPOs bringen.

Und wo sind die Grenzen?

Wo sehen Sie die Grenzen der Messbarkeit von Wirkung? So sagt Julia Manske dass es oft noch nicht einmal Daten gibt, um beispielsweise die SDGs messen zu können.

Klar gibt es Grenzen. Aber deshalb versuchen wir ja, diese Grenzen zu verschieben. Vieles ist noch nicht machbar. Umso mehr müssen wir daran arbeiten. Richtig ist auch, dass es schwammiger wird, je weiter man sich bei der Theory of Change vom Output über den Outcome zum Impact bewegt. Aber viele Non-Profits haben noch nicht einmal eine Theory of Change! Da müssen wir ansetzen und besser werden. Statt zu resignieren, müssen wir es so gut machen, wie wir können.

 

Was muss man beachten, wenn man Datenanalysen interpretiert?

Ein Problem ist, das eigentlich immer das optimiert wird, was auch gemessen wird. Da sagt schon Goodhart’s Law: Wenn ein Messwert ein Ziel wird, ist es kein guter Messwert mehr. Oder wenn Indikatoren gegamed werden. Wenn man alles tut und falsche Anreize setzt, um die Indikatoren zu pushen statt das dahinter liegende Ziel und den eigentlichen Sinn ad absurdum führt. Bekäme eine Fabrik beispielsweise einfach nur umso mehr Geld, je mehr Nägel sie produzieren würde, kämen wahrscheinlich immer kleinere Nägel dabei heraus. Wichtig ist, dass wir uns der Probleme der Datenanalyse bewusst sind. Transparenz ist hier wieder sehr wichtig, damit die Möglichkeit der Kritik besteht. Wenn man etwas auf eine bestimmte Weise analysiert hat, muss man diskutieren können, ob die Methode in Ordnung wahr.

 

Die Knight Foundation, das Omidyar Network und andere wollen 27 Millionen US-Dollar an Projekte vergeben, die KI zum Wohle der Zivilgesellschaft erforschen. Welche Projekte würden Sie fördern?

Ich finde die US-Initiative Fairness, Accountability and Transparency in Machine Learning großartig. Da geht es um die Voreingenommenheit von Machine Learning, um alles, was in deren Namen steht und wie man da regulatorisch rangehen kann – das sind super wichtige Themen, die genau jetzt bearbeitet werden müssen. AI Safety ist für mich eher ein philosophisches Thema, da sehe ich noch nicht so viel Relevanz. Aber Bildung ist umso wichtiger. Je mehr Leute Dinge wie Deep Learning nicht mehr als etwas mystisches oder als eine Blackbox wahrnehmen, desto besser. Je mehr KI und Data Science verstehen und merken, was es kann und was nicht, desto mehr bessere und informiertere Entscheidungen können getroffen werden. Desto besser können wir entscheiden, wann es sinnvoll ist, die Technologie einzusetzen und wann nicht. Und wann es sogar gefährlich ist.

Fazit


Ihr Ausblick auf das KI-for-Good-Jahr 2030?
Eine Vorhersage ist mir hier nicht evidenzbasiert genug. Aber ich wünsche mir, dass 2030 jede Non-Profit ihren eigenen Data Scientist hat, dass DSSG Berlin dann nicht mehr gebraucht wird.