Datenethik oder wilder Westen

Die Datenethik-Kommission der Bundesregierung hat ihren seitenstarken Bericht offiziell übergeben. Der Bericht lässt sich hier von der Seite der Bundesregierung oder hier von der eigenen Seite der Datenethikkommission herunterladen. Schon kurz nach der Veröffentlichung wurden seitens der Wirtschaft Befürchtungen geäußert, dass die Vorschläge der Kommission zu einer Überregulierung des Umgangs mit Daten führen könnten, was unter allen Umständen zu vermeiden sei. So titelt das Handelsblatt, die Kommission würde Algorithmenverbote ins Spiel bringen während Bitkom erklärt, die Kommission wäre über das Ziel hinausgeschossen. Die Stellungnahme des Bitkom e.V. finden Sie übrigens hier. Netzpolitik.org hat derweil eine eigene Zusammenfassung der wichtigsten Forderungen der Datenethikkommission veröffentlicht.

Ethik: Stellen wir den Menschen in den Mittelpunkt

Warum geht es aber überhaupt? Während sich die Welt um uns herum zunehmend digitalisiert, leben wir Menschen nach wie vor in einer analogen Welt. Unsere Gesellschaft hängt von den Menschen ab, die in ihr leben und sie gestalten. Die Wahrung der Würde des Menschen, Demokratie und Menschenrechte, die Verteilung von Macht und Kapital, der Schutz der analogen Ökosysteme, Ernährung und gerechter Zugriff auf Ressourcen, Sicherung der Lebensgrundlagen, all dies sind Problemstellungen, für die wir Lösungen brauchen. Jedwede technologische Entwicklung sollte auch daran gemessen werden, ob und welchen Lösungsbeitrag sie hier liefern kann.

Wir erleben eine wahre Goldgräberstimmung, wenn es um Daten geht. Daten sind das neue Gold. Dabei ist der Umgang mit personenbezogenen Daten, den einige ja bereits für vollkommen überreguliert halten, nur die Spitze des Eisbergs. Was ist mit all den Daten, die zwar keinen Personenbezug haben, aber für gesellschaftliche und demokratische Entscheidungen relevant sind. Wer darf über solche Daten verfügen, wer hat die Macht, solche Daten geheim zu halten oder den Zugang dazu zu beschränken oder sie im Gegenteil für die Öffentlichkeit zugänglich zu machen?

Analoge Welt trifft digitalen Raum

Das Wesen der Informatik ist die Modellbildung. Die Wirklichkeit wird mit Hilfe von Daten in digitaler Weise abgebildet. Diese Abbildung ist gezwungener Maßen eine Abstraktion der Wirklichkeit und nicht mehr mit derselben identisch. Jede Abstraktion ist interessengeleitet. Sie ist wie das Licht einer Taschenlampe, die immer nur bestimmte Ausschnitte der Realität beleuchtet. Aber wer hat Kontrolle darüber, wie Realität in abstrakte Modelle übersetzt wird und gibt es Konstellationen, in denen solche Abstraktionen unzulässig werden, weil sie z.B. Menschen oder Personengruppen benachteiligen? So schildert Spiegel Online in einem Bericht, wie Daten und Algorithmen im US-amerikanischen Gesundheitssystem zur Diskriminierung bestimmter Bevölkerungsgruppen beitragen.

Algorithmen verarbeiten Daten und erzeugen neue Daten. Diese Ergebnisse repräsentieren ihrerseits wieder Sachverhalte in der realen analogen Welt, vorausgesetzt, die Interpretation der Ergebnisse ist korrekt und die Algorithmen haben richtig gearbeitet. Während es in der analogen Welt zahlreiche Vorgänge gibt, die verboten sind, z.B. weil sie ein hohes Risiko für Menschen haben, sind Algorithmen heutzutage weitgehend unreglementiert. Welche Gefahr von fehlerhaften Algorithmen ausgehen kann, hat man z.B. beim Boing 747-Max Desaster gesehen. Hier haben fehlerhafte Algorithmen viele Menschenleben gekostet. Aber es gibt nicht nur Gefahren aufgrund fehlerhaft implementierter Algorithmen sondern solche, die im Grundsatz ethische Fragen aufwerfen. Wie reagiert der Steuerungsalgorithmus eines selbstfahrenden Autos, wenn er bei einem Unfallszenario nur noch die Wahl hat, eine von mehreren Personen zu töten weil er den Unfall nicht mehr vermeiden kann. Darf sich ein Programmierer erheben und mittels Algorithmus über Menschenleben bestimmen? Was macht das System, wenn es für die gegebene Situation keine ethisch vertretbare Lösung gibt?

Darf ein militärischer Kampfroboter jeweils eigenständig entscheiden, ob er ein Ziel angreift und Menschen verletzt oder tötet? Es wird schnell offenbar, dass es Entscheidungen gibt, die ihrer ethischen Brisanz wegen, nur von Menschen getroffen werden dürfen. Die Herstellung entsprechender Algorithmen sollte daher tatsächlich verboten sein.

Determinismus oder die Nachvollziehbarkeit von Algorithmen

Algorithmen bestimmen das Verhalten von digitalen Systemen. Dabei kann man grob zwischen deterministischen und nicht-deterministischen Systemen unterscheiden. Deterministische Systeme produzieren bei gleichen Eingabedaten auch zwingend gleiche Ergebnisse. Dies ist bei nicht-deterministischen Systemen anders. Bei zunehmend komplexeren Systemen mögen die einzelnen Bestandteile durchaus deterministisch sein, was für das Gesamtverhalten des Systems aber nicht mehr zwingend der Fall sein muss. Betrachtet man z.B. moderne Algorithmen im Bereich machine learning, dann sind die Algorithmen, nach denen einen solches System lernt, durchaus deterministisch und damit nachvollziehbar. Aber gilt dies auch noch für das Gesamtsystem, das mit jedem Lernvorgang „schlauer“ wird. Hier muss man sich wohl von der Vorstellung eines unbedingten Determinismus lossagen. Für die Nachvollziehbarkeit von Algorithmen erzeugt dies unmittelbare Hürden. Wenn die Transparenz über die Funktionsweise eines Algorithmus jedoch fehlt, dann ist man dessen Ergebnissen relativ schnell ausgeliefert. Entscheidet dann eine Maschine über mein Schicksal, ohne dass ich das noch beeinflussen kann? Die DSGVO verbietet dies zu Recht für bestimmte Bereiche, nämlich dort, wo eine solche maschinelle Entscheidung für ein Individuum eine rechtliche Wirkung entfaltet. Kein Mensch muss akzeptieren, einer solchen vollautomatisierten Entscheidung unterworfen zu sein.

Künstliche Intelligenz ist ohne nicht-deterministische Algorithmen nicht denkbar. Viele der Probleme, die durch künstliche Intelligenz bzw. Machine Learning gelöst werden können, sind einer herkömmlichen prozeduralen, deterministischen Herangehensweise aufgrund ihrer Komplexität nicht mehr zugänglich. Wie jedoch, kann dann ein Hersteller eines KI-Modells Rechenschaft über sein Produkt ablegen? Wie funktioniert gesellschaftliche Kontrolle von Maschinenentscheidungen, die Einfluß auf öffentliche Meinung, Meinungsfreiheit und politische Entwicklungen haben können.

Digitalisierung in der Pubertät

Betrachtet man den heutigen Stand der Digitalisierung, dann kann man von einem ausgereiften Umgang mit digitalen Prozessen noch lange nicht sprechen. Vielmehr manifestiert sich der Eindruck, die Digitalisierung befände sich in ihrer Sturm-und-Drang-Zeit, in der Regeln als unnötige Beschränkungen der digitalen Entwicklung und Selbsterfahrung empfunden werden. Die eingesetzten Technologien erscheinen uns teilweise sehr weit fortgeschritten. Aber sind sie das wirklich?

Entwickler erfinden neue digitale Produkte und lassen diese praktisch unkontrolliert auf die Menschheit los. Niemand weiß, was Geräte und Algorithmen tun, wer davon profitiert und wer möglicherweise Gefahren ausgesetzt ist, ohne das zu wissen. Die Liste der Beispiele ist lang. Man nehme nur WLAN-fähige Lampen, die sich sehr bequem über das Netzwerk ein- und ausschalten oder in der Farbe ändern lassen: Wer garantiert hier für die IT-Sicherheit, für regelmäßige Updates oder verhindert, dass Hacker sich in die Firmware solcher Lampen hineinhacken, um dann mittels tausender Lampen Angriffe auf fremde Webserver durchzuführen. Haben Sie jemals ernsthaft eine Lampe in eine Fassung geschraubt und dann vor dem ersten Einschalten ein Firmware-Update durchgeführt?

Der Markt wird überschwemmt mit unsicheren Produkten und unsicheren Algorithmen. Wer schützt uns effektiv davor? Als Konsumenten können wir das kaum selbst bewerkstelligen, jedenfalls dann nicht, wenn wir uns den neuen Produktwelten nicht komplett verschließen wollen.

Das Internet braucht Akteure, die zur Rechenschaft verpflichtet sind

Im Internet herrscht wilder Westen, in dem die Digitalisierung als pubertärer Kindskopf zwischen Revolverhelden herumtobt. Alle bisherigen Versuche, das Internet zu reglementieren scheinen lediglich an den Symptomen anzugreifen und greifen daher zu kurz. Mit dem Netzwerkdurchsetzungsgesetz wurde versucht, Hate-Speech im Internet etwas entgegen zu setzen. Dabei wird hilfsweise auf die Technologie-Anbieter zurückgegriffen, weil die eingesetzten Technologien keine Verfahren beinhalten, Akteure im Internet zur Rechenschaft ziehen zu können. Die DNA des Internets besteht aus einer technischen Lösung, die zur Vernetzung von ein paar Rechnern einer wissenschaftlichen Community gedacht waren – weit entfernt von dem, für was die Technologie heute eingesetzt wird. Die Basistechnologien des Internets haben sich seit ihrer Erfindung in den 1980er Jahren nicht fundamental weiterentwickelt.

Aber genau hier muss Digitalisierung ansetzen. Gesellschaftlich ethische Grundregeln einer pluralistischen und demokratischen Gesellschaft müssen sich als Anforderungen an moderne digitale Produkte etablieren. Digitaler Fortschritt sollte nicht nur das technisch machbare in den Fokus nehmen, sondern zur Förderung gesellschaftlicher Ziele dienen.

Die DSGVO oder das Netzwerkdurchsetzungsgesetz erscheinen mir beispielsweise als der Versuch, die gesellschaftlichen Defizite einer Technologie durch Rechtsregeln zu heilen. Das kann nur begrenzt funktionieren und führt im Gegenzug eher zur Behinderung von Innovation denn zu ihrer Förderung. Wie wäre es denn, mal endlich die Hersteller von Produkten in die Pflicht zu nehmen, digitalen Fortschritt nicht nur als Eldorado des Machbaren zu begreifen, sondern ihre Produkte nach ethischen Gesichtspunkten und nach den Grundregeln einer funktionierenden pluralistischen Gesellschaft zu gestalten. Wie wäre es, Hersteller hinsichtlich der Sicherheit ihrer digitalen Produkte in die Pflicht zu nehmen. Wohl wissend, dass es technisch keine 100%-tige Sicherheit gibt, sollten Hersteller über ihre Bemühungen, die Produkte so sicher wie möglich zu machen, Rechenschaft ablegen müssen.

Top