Künstliche Intelligenz, autonome Systeme und algorithmenbasierte Datenverarbeitung sind keine Zukunftsthemen mehr. Sie finden schon heute im Alltag statt – auch in der Verwaltung. Etwa Risikomanagementsysteme, die errechnen, bei welchen Steuererklärungen sich eine Prüfung lohnt, KI-gestützte Posteingänge, die Nachrichten sortieren und automatisiert beantworten, oder auch Algorithmen, die Verkehrs- oder Einbruchsrisiken für bestimmte Straßenzüge errechnen.
Für die einen versprechen solche Systeme objektive Prozesse, die „fehlerfreie“ Entscheidungsgrundlagen liefern können, für die anderen bedeutet es, dass Maschinen Urteile fällen, die eigentlich einer Einzelfallbetrachtung und somit einer menschlichen Einschätzung bedürfen. Die Debatte, welchen ethischen und juristischen Maßstäben solche Programme unterliegen müssen, ist längst in vollem Gange. Berührungsängste sind groß – auch, weil viele Menschen glauben, sie bräuchten spezielle Kenntnisse, um KI-Systeme – oder auch algorithmenbasierte Datenverarbeitung – zu nutzen.
Neben der Skepsis in Sachen Know-how geht es auch um Vertrauensfragen. Was macht das System mit den Daten? Wie werden sie verarbeitet und ausgewertet? Vor allem in der Verwaltung ist es unabdingbar, dass sowohl die Mitarbeiter*innen als auch die Bürger*innen den Systemen vertrauen – schließlich sind sie von den Ergebnissen unmittelbar betroffen.
Bürger*innenbeteiligung für die Gestaltung von KI-Systemen
Für Vertrauen braucht es vor allem Transparenz und Nachvollziehbarkeit. In einem ersten Schritt verständlich zu erklären, was genau algorithmenbasierte Datenverarbeitung und was genau KI ist, wie die Systeme funktionieren und welchen Nutzen sie haben, ist wichtig. Das baut Ängste ab und schafft Vertrauen. Wenn es um die Verwaltung geht, müssen hierbei sowohl Bürger*innen als auch die Personen, die mit den Systemen arbeiten sollen, adressiert werden.
Darüber hinaus wird die Akzeptanz von KI und algorithmenbasierten Prozessen gestärkt, wenn Bürger*innen vorab in die Gestaltung der Systeme einbezogen werden. Wenn Menschen etwa mitbestimmen, welche Parameter ihnen wichtig sind und nach welchen Kriterien sie bestimmte Dinge auswählen oder bewerten, kann eine Software entsprechend designt werden.
Die Wahrscheinlichkeit, dass die Entscheidungen, die dieses System später trifft, von den Bürger*innen akzeptiert werden, ist ungleich höher – schließlich haben sie sich aktiv daran beteiligt, die Entscheidungsmatrix zu gestalten. Damit sie dies prozess- und lösungsorientiert tun können, braucht es Bürger*innenbeteiligung.
Wie neutral ist KI?
Bürger*innenbeteiligung bei der Entwicklung von KI- bzw. algorithmenbasierten Systemen, die im öffentlichen Sektor angewendet werden sollen, hilft zum einen der späteren Ergebnisakzeptanz, zum anderen sorgt sie dafür, dass die Programme optimal auf die späteren Nutzer*innengruppen zugeschnitten sind. Sprich, sie berücksichtigen Informationen, die Anwender*innen im Vorfeld als relevant eingestuft haben und greift nicht nur auf Parameter zurück, die von IT-Expert*innen oder Sachbearbeiter*innen festgelegt wurden. Das minimiert automatisierte „Fehlentscheidungen“.
Ein wichtiger Faktor. Denn schon heute wird darüber debattiert, wie neutral und damit zuverlässig oder wie diskriminierend – etwa rassistisch oder sexistisch – solche Systeme sind. So wurden etwa in den USA, in denen die Polizei vielfach auf algorithmische Daten zurückgreift, eine deutliche Benachteiligung von People of Colour festgestellt. In Österreich geriet ein Datensystem in Verruf, mit dem der Arbeitsmarktservice (AMS), das Pendant zur deutschen Arbeitsagentur, einschätzen sollte, wie gut die Chancen, einzelner Bewerber*innen bei der Jobsuche waren. Hier diskriminierte das System Frauen. Sie wurden – trotz gleicher Qualifikation oder Altersgruppe – grundsätzlich schlechter bewertet als Männer. In den Niederlanden hatte ein Programm, das Sozialbetrüger*innen identifizieren sollte, eine Fehlerquote von über 50 Prozent und stellte damit viele Menschen aufgrund ihrer Parameter unter Generalverdacht. Der Einsatz des diskriminierenden Systems wurde 2020 gerichtlich verboten.
Bürger*innenbeteiligung kann die Systeme für die späteren Nutzer*innen optimieren
Softwareprogramme entscheiden nicht zwingend objektiv und neutraler als Menschen – denn sie wurden ja von ebendiesen programmiert. Die Bedürfnisse derjenigen, die die späteren Entscheidungen der KI-Systeme betrifft, sollten deshalb bereits im Entstehungsprozess der Programme berücksichtigt werden. Diese Menschen im Vorfeld zu beteiligen, kann die Systeme besser machen.
Konkret bedeutet das, wenn Verwaltungen Prozesse aufsetzen, die auf algorithmenbasierte Datenverarbeitung oder auch KI-Systemen basieren, sollten sie bei der Frage, wie diese Programme gestaltet werden, unbedingt Bürger*innen einbeziehen. Eine niedrigschwellige Beteiligung kann beispielsweise zeigen, ob die späteren Nutzer*innen die Anwendung praktikabel finden, ob sie mit Bewertungskriterien und bereitgestellten Informationen einverstanden sind und ob sie dem System als Entscheidungsgrundlage schlussendlich vertrauen. Das sollte nicht erst in einer Beta-Version getestet werden, in der oftmals nur die Praktikabilität abgeklopft wird. Sondern schon davor geschehen, um die Eingabemasken, die programmierten Entscheidungsparameter oder auch die Nützlichkeit der Daten zu optimieren.
Grundlagen für die Zukunft schaffen
Schon heute setzt die Verwaltung an vielen Stellen Algorithmische Assistenzsysteme ein. Dies wird weiter zunehmen. Ebenso wie die Verwendung von selbstlernenden Systemen. Sie sollen alltägliche Arbeitsschritte erleichtern, Entscheidungen effizienter treffen und komplexe Daten zügig verwerten. Bei Tätigkeiten mit einem hohen Standardisierungsgrad sorgen sie so für eine zügige Aufgabenabwicklung. Damit dies unter Einhaltung juristischer und ethischer Maßstäbe geschieht, muss die Debatte über Einsatz und Gestaltung solcher Systeme heute geführt werden. Dazu gehört nicht nur die Frage, an welchen Stellen es immer noch eine individuelle, menschliche Entscheidung braucht, sondern auch die Pflicht, die Bürger*innen transparent zu informieren. Und noch besser: Diejenigen von Anfang an einzubeziehen, die später von den Entscheidungen des Systems betroffen sein werden.