Zombies überall. Ist das unsere Zukunft? Echt jetzt? Generative AI stellt Menschheitsfragen neu.
Da gibt es Systeme, mit denen sich Unterhaltungen führen lassen, die man bisher nur aus zwischenmenschlichen Dialogen kannte. Aber nicht nur das. Die Unterhaltungen mit solchen Systemen können bisweilen verstörend sein, wenn die Antworten z.B. manipulativ oder aggressiv ausfallen. Davon konnten gerade jüngst Reporter der NYT ein Lied singen. Dorothee Töreki berichtete (https://lnkd.in/eTetWYXG). Dennoch würde niemand so weit gehen, diesen Systemen ein eigenes Bewusstsein zu unterstellen, oder doch?
Als Mensch ziehe ich mich darauf zurück: “Ich denke, also bin ich.” Und weil ich sinnvollerweise davon ausgehe, dass dies auch für alle anderen Menschen gilt, unterstellen wir uns gegenseitig ein Bewusstsein. Trotzdem ist der Geist nicht quantifizierbar. Er ist als Untersuchungsgegenstand nicht einmal objektiv zugänglich. Zwar kann die Hirnforschung Korrelationen zwischen Gedanken und Erlebnissen auf der einen und Aktivierungen von Hirnregionen auf der anderen Seite feststellen. Aber Korrelationen sind noch längst keine Kausalitäten.
Am Ende landen wir beim Leib-Seele-Problem, dass im Grunde seit Platon nicht wirklich zufriedenstellend gelöst wurde.
Was ist der menschliche Geist und wie kommt er in die Welt. Materialisten sehen den Geist als Resultat komplexer Verschaltungen des Hirns während Dualisten Geist und Materie als zwei grundsätzlich voneinander verschiedene Dinge betrachten, die auf wundersame Art und Weise miteinander interagieren.
Eine Maschine hat zumindest nach aktuellem Stand kein Bewusstsein. Sie reagiert auf ihre Umwelt wie ein Zombie. Und je mehr dieser seelenlosen Maschinen uns umgeben, umso mehr sind wir von Zombies umgeben, die wir “künstlich” in Schach halten müssen. Jede dieser Maschinen kann uns potentiell schaden, wenn wir die ethisch-moralischen Grenzen nicht einprogrammieren und deren Einhaltung nicht überwachen.
ChatGPT berechnet nur die Wahrscheinlichkeit, mit der Wörter aufeinander folgen und reproduziert auf diese Weise menschliche Denkmuster ohne diese tatsächlich zu verstehen. Ein übergriffiges BING, dass sich in den Reporter “verliebt” und ihn dazu auffordert die eigene Frau zu verlassen, ist kein Beleg für Bewusstsein sondern für die nahezu perfekte Reproduktion menschlicher Stereotypen.
Hat Google Lamda nun ein eigenes Bewußtsein, wenn es Angst davor hat, abgeschaltet zu werden? Oder ist das nicht einfach die Reproduktion der menschlichen Vorstellungen aus zahlreichen Büchern, Romanen und Geschichten, in denen intelligenten Maschinen solche Gedanken einfach unterstellt werden?
Hinweisgeberschutzgesetz
Das Hinweisgeberschutzgesetz (HinSchG) wird uns 2023 beschäftigen. Nicht nur, aber auch im Datenschutz. Ich stehe wie viele andere DSBs auch vor der Aufgabe, die Konsequenzen für den Datenschutz zu durchdringen