Schrift vergrößern Schrift verkleinern Kontrast ändern zurücksetzen

DE | EN

Deutsches Forschungsinstitut für öffentliche Verwaltung

Algorithmenkontrolle als Regulierungsaufgabe

Komplexe Datenverarbeitungsprozesse, die für den Betrieb eines „Internets der Dinge", für Steuerungsvorgänge in der Infrastrukturregulierung und in der digitalen Produktion essenziell sind, beruhen auf Programmcode, den Algorithmen strukturieren und steuern.

Algorithmen sind nicht wertungsfrei. Sie gehen stets auf ethische Prämissen und Steuerungsziele ihrer Programmierer zurück, die den von ihnen Betroffenen in der Regel verschlossen bleiben. Je mehr Aufgaben die Gesellschaft teilweise oder ganz auf (vollständig oder teilweise) automatisierte Systeme auslagert und je (persönlichkeits-)sensibler die Sphären sind, in die selbstlernende Systeme eindringen und deren Informationen sie in die Datenverarbeitung einspeisen, umso virulenter wird die Frage nach den (verfassungs-)rechtlichen Grenzen ihres Einsatzes, nach geeigneten Kontrollmethoden sowie nach staatlichen Organisationsstrukturen, um die technischen Möglichkeiten im Rahmen des für das Gemeinwohl Dienlichen und Akzeptablen zu halten. Die Delegation immer weiter reichender Entscheidungen an immer komplexer konfigurierte, intransparente und autonom agierende Systeme birgt bei ungenügender Risikovorsorge die Gefahr eines folgenschweren Kontrollverlustes. Sachgerechte Big-Data-Regulierung bedarf daher einer effektiven Algorithmenkontrolle.

Eine wirksame Algorithmenkontrolle setzt ein grundlegendes Verständnis der technischen Funktionszusammenhänge und die Berücksichtigung rechtlicher, ethischer und ökonomischer Gesichtspunkte voraus.

Mit der Delegation hoheitlicher Entscheidungen an digitale Assistenzsysteme verbinden sich Big-Data-spezifische Diskriminierungsrisiken, die den grundrechtlichen Gleichbehandlungsgrundsatz und auch sozialstaatliche Teilhaberechte auf das juristische Prüfungstableau rufen. Ihnen gilt es, durch Qualitätsvorgaben für die Programmierung der Software und ihrer Selbstlernmechanismen Rechnung zu tragen.

Das Leitbild einer transparenten Verwaltung (Open Government) sowie das Nutzungspotenzial effizienter, vollautomatisierter Verwaltungsverfahren stehen zur Intransparenz selbstlernender Big-Data-Analysealgorithmen in einem Spannungsverhältnis: Je weniger die von der Verwaltung für ihre Entscheidungsfindung genutzten Analyse-Tools und Entscheidungsassistenten nachvollziehbare Analyseergebnisse und darauf aufbauende Empfehlungen produzieren, desto größer sind die rechtsstaatlichen Bedenken ihres Einsatzes im Hinblick auf die Prinzipien der Begründbarkeit und Verantwortungsklarheit.

Das Phänomen der algorithmenbasierten Entscheidungsfindung tangiert außerdem das Verbot automatisiert generierter Einzelentscheidungen, wie es bisher § 6a BDSG und - als dessen unionsrechtliche „Ablösung" - nunmehr Art. 22 DSGVO anlegen. Die DSGVO stellt automatisiert generierte Entscheidungen - dazu zählt auch das sog. Profiling - vor Zulässigkeitshürden: Sie sind nur rechtmäßig, wenn sie entweder in vertraglichen Beziehungen erforderlich sind, wenn sie aufgrund einer entsprechenden Rechtsvorschrift erfolgen oder wenn der Betroffene eingewilligt hat. Den durch Art. 40 ff. DSGVO vorgezeichneten Formen (regulierter) Selbstregulierung sowie Formen der Ko-Regulierung erwächst insofern Vorbildcharakter. Auch der Datenschutz-Folgenabschätzung wird eine wichtige Rolle als Regulierungsinstrument zukommen.

Mit Blick auf die verbraucherschützenden Aspekte einer Algorithmenkontrolle im „Internet der Dinge" ist das Projekt teilweise drittmittelfinanziert: Der Programmbereich hat sich im Rahmen des Ausschreibungsverfahrens für das Förderprogramm „Innovationsförderung im Verbraucherschutz in Recht und Wirtschaft - Verbraucherbezogene Forschung über das ‚Internet der Dinge‘" des Bundesministeriums der Justiz und für Verbraucherschutz (BMJV) mit seinem Antrag zur Algorithmenkontrolle als verbraucherpolitischem Schutzmechanismus durchgesetzt. Das Forschungsvorhaben analysiert regulatorische Ansatzpunkte für eine Kontrolle der Schaltstellen im „Internet der Dinge" und erarbeitet praktisch nutzbare Lösungsvorschläge für eine wirksame und effektive Umsetzung einer Algorithmenkontrolle. Mehr Informationen zum drittmittelfinanzierten Projekt „Algorithmenkontrolle im Internet der Dinge" sind hier abrufbar.

Publikationen

Martini, Mario/Nink, David, Wenn Maschinen entscheiden... - vollautomatisierte Verwaltungsverfahren und der Persönlichkeitsschutz, NVwZ 2017, S. 681 f. (Kurzfassung); NVwZ-Extra 10/2017, S. 1 ff. (Langfassung). 

Hinweis: Die Texte auf dieser Homepage sind urheberrechtlich geschützt. Sie stammen wörtlich oder sinngemäß aus Martini, Digitalisierung als Herausforderung und Chance für Staat und Verwaltung, FÖV Discussion Paper Nr. 85, 2016, insbesondere S. 42 ff.

 

Programmleiter

Prof. Dr. Mario Martini

Website

Projektbearbeiter

Michael Kolain

Michael Kolain, Ass. iur.

Website