Brauchen wir digitale Grundrechte?

Ein Widerspruch von Thomas Mayer, Direktkandidat im Wahlkreis 218 München-Ost, zu Äußerungen von Innenminister Thomas de Maizière.

Thomas de Maizière hat in einem Panel auf der re:publica 2017 erklärt, dass er den Ruf nach digitalen Grundrechten für überflüssig halte, weil sie schon im Grundgesetz verankert seien. Einerseits hat er damit recht, andererseits lassen sich aus dem Grundgesetz auch andere Rechte ableiten. Als Standardbeispiel für nicht explizit genannte Rechte gilt das Recht auf informationelle Selbstbestimmung, das vom Bundesverfassungsgericht im Volkszählungsurteil 1983 definiert wurde. Somit ist es durchaus sinnvoll, die abgeleiteten Rechte explizit auszuformulieren.

Beispiel Volkszählung 1983

Das Volkszählungsurteil ist interessant, weil sich darin folgender Abschnitt befindet:

„Individuelle Selbstbestimmung setzt aber – auch unter den Bedingungen moderner Informationsverarbeitungstechnologien – voraus, dass dem Einzelnen Entscheidungsfreiheit über vorzunehmende oder zu unterlassende Handlungen einschließlich der Möglichkeit gegeben ist, sich auch entsprechend dieser Entscheidung tatsächlich zu verhalten. Wer nicht mit hinreichender Sicherheit überschauen kann, welche ihn betreffende Informationen in bestimmten Bereichen seiner sozialen Umwelt bekannt sind, und wer das Wissen möglicher Kommunikationspartner nicht einigermaßen abzuschätzen vermag, kann in seiner Freiheit wesentlich gehemmt werden, aus eigener Selbstbestimmung zu planen oder zu entscheiden.“

Hier wird also auf die Selbstbestimmung des Einzelnen verwiesen, also das in Art. 2 (1) Grundgesetz (GG) garantierte Recht auf freie Entfaltung der Persönlichkeit, die auch die Freiheit zur Entscheidung zu oder gegen Handlungen beinhaltet.

Big Data kennt keine Grundrechte

Die Menge der gespeicherten Daten hat mit der Zeit immer mehr zugenommen. Bei Big-Data-Analysen wird häufig nicht mit personenbezogenen, sondern mit anonymisierten Daten gearbeitet, dennoch kann die Entscheidungsfreiheit des Einzelnen über deren Nutzung eingeschränkt sein. Dabei ist zu berücksichtigen, ob die Algorithmen den Einzelnen diskriminieren. Ein Beispiel dafür ist die Ermittlung des Schufa-Scores bei der Bewertung der Kreditwürdigkeit. Dort fließt auch die Anschrift des möglichen Kreditnehmers in die Analyse ein; wer in einer Umgebung wohnt, in der häufiger Kredite nicht bedient werden, wird schlechter bewertet.

Es genügt also nicht, nur auf den Datenschutz zu verweisen, um eine ungerechtfertigte Diskriminierung und damit Einschränkung der Entscheidungsfreiheit zu verhindern. Die Algorithmen müssen bekannt und transparent sein, um feststellen zu können, ob diese Einschränkung in der konkreten Anwendung gerechtfertigt ist, insbesondere auch wegen des Diskriminierungsverbots in Art. 3 (2) und (3) GG.

Künstliche Intelligenz kann diskriminieren

Ein zusätzliches Problem ergibt sich aber dadurch, dass viele Algorithmen bei der Big-Data-Analyse nicht explizit von Anwendern oder Programmierern vorgegeben werden, sondern mit maschinellem Lernen und künstlicher Intelligenz während der Analyse selbst erstellt werden. Es gibt Forschungsansätze dazu, wie Diskriminierung bei Künstlicher Intelligenz entdeckt werden kann. Die Ergebnisse dieser Forschung müssen aber auch genutzt werden, um eine nicht gerechtfertigte Diskriminierung zu verhindern. Diese Pflicht festzuschreiben, ist Aufgabe des Gesetzgebers.

Thomas de Maizière hat also unrecht, wenn er sich gegen eine Ausformulierung von digitalen Rechten wendet.


Schreibe einen Kommentar

Weitere Kommentare sind eventuell auf der Website zu finden, die den Artikel ursprünglich veröffentlicht hat.

Ihre E-Mail-Adresse wird nicht öffentlich angezeigt. Verbindlich einzugebende Felder werden mit diesem Zeichen kenntlich gemacht: *