Letzte Woche appellierte die NGO Center of AI Safety an die Welt: „Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie Pandemien oder Atomkriege.“ Zu den insgesamt 375 Unterzeichnern gehört die Creme de la Creme der künstlichen Intelligenz. Die Chefs von OpenAI und Google Deepmind finden sich ebenso darunter wie die Gewinner des Turing Awards 2018 und die Namen einiger namhafter deutscher KI-Forscher. Dieser lediglich 22 Worte umfassende Trigger ist allein deshalb bemerkenswert, da die Risikowarnung bisher von anderen übernommen wurde: Streaming Plattformen mahnen vor sexistischen oder gewalttätigen Inhalten in Spielfilmen, die Deutsche Umwelthilfe kämpft Straßenschlachten gegen die Emission von PKWs und Universitäten schützen ihre Studenten vor dem unverhofften Anblick scheinbar rassistischer Begriffe in Werken der Weltliteratur. Nun also mal so herum. Die Hersteller warnen vor ihren eigenen Produkten. Also vor den Gefahren, die aus den Resultaten ihres eigenen Denkens entsteht. Hätten sich die Unterzeichner in den zurückliegenden Jahren dem Verfassen tragischer Poeme, dem Ergründen unwiderstehlicher Erfolgsstrategien im Halma-Spiel oder philosophischen Disputen über die Vergänglichkeit der Welt gewidmet – dieser Appell wäre niemals notwendig gewesen. Und auch jetzt noch könnten sie die Konsequenz bzw. den Stecker ziehen. Indem sie einfach ihre Geschäftstätigkeit einstellen und alle Quellprogramme unwiederbringlich löschen. Genau das machen sie jedoch nicht. Stattdessen formulieren sie aufmerksamkeitsheischende Warnhinweise, mit denen sie ihre Produkte noch populärer machen. Eine Art von distanzierender Werbung, mit denen es ihnen gelingen sollte, zusätzlich zu den Werken der Informatik auch Erwähnung in den Lehrbüchern des Marketings zu finden. Aber vielleicht ist dieser Trigger auch nichts anderes als ein Teil einer perfiden PR-Kampagne. Um die Bereitschaft der Welt zur Entwicklung einer Sicherheits-KI zu stimulieren, die uns vor den Auswüchsen der klassischen KI schützt. Es wäre doch gelacht, wenn sich nicht ein paar Milliardäre finden ließen, die ihre Geldbörse für ein solch hehres Ziel öffnen würden.