Sicherheitsabteilung verlässt OpenAI
Es fühlt sich seltsam an, wenn die führenden Verantwortlichen für Sicherheit bei OpenAI, dem Unternehmen von Chat GPT, darunter OpenAI-Chefwissenschaftler und Mitbegründer Ilya Sutskevar, alle kündigen. Genau das ist passiert, gerade mal ein Jahr nachdem OpenAI 2023 der Öffentlichkeit präsentiert wurde. Das ist umso befremdlicher, als das Unternehmen ausdrücklich vor den möglichen Gefahren der KI gewarnt hat, die theoretisch bis zur Auslöschung der Menschheit reichen würden. Um genau diese Risiken zu minimieren, hatte man eine eigene Abteilung geschaffen, welche die Aufgabe hatte, zukünftige KI-Systeme so zu entwerfen, dass diese nicht zu mächtig werden könnten.
Offensichtlich hatte es innerhalb des Unternehmens interne Spannungen zwischen dem Sicherheitsteam und der Geschäftsleitung gegeben. Einer der Chefs des Sicherheitsteams, Jan Leike hat in einer Erklärung auf X mitgeteilt, dass "mit dem Bau intelligenter Maschinen große Risiken verbunden seien. Und dass OpenAI Verantwortung für die ganze Menschheit trage." Leider sei das Sicherheitsdenken bei OpenAI immer mehr in den Hintergrund gedrückt worden, zugunsten möglichst beeindruckender KI Produkte. Von den ursprünglich versprochenen 20% an Rechenressourcen für das Sicherheitsteam habe man nicht einmal einen Bruchteil erhalten, was die eigentliche Aufgabe praktisch unmöglich gemacht hat.
Risiken einfach hinnehmen?
Im Unternehmen gibt es weitere Mitarbeiter*Innen, die beauftragt sind, mögliche unkontrollierbare Risiken aus KI-Systemen wie die Bedrohung der Cybersicherheit, chemische, nukleare und biologische Bedrohungen zu minimieren. Wenn die führenden Köpfe des Sicherheitsdepartments gehen, deutet das darauf hin, dass diese sich zu wehrhaft für Sicherheitsbelange eingesetzt haben und dass nur noch die weniger kritischen Mitarbeiter*Innen im Unternehmen verblieben sind.
Eine KI ohne Einschränkungen könnte beispielsweise die perfekten Computerviren entwerfen und Hacks jedweder Sicherheitssysteme vollziehen, könnte sich gegen die Menschen richten und mehr. Man kannte diese Szenarien früher nur aus Science-Fiction Romanen und Filmen, doch seit 2023 sind sie erstmals in greifbare Nähe gerückt. Umso verwunderlicher, dass ausgerechnet in Sam Altmans Unternehmen, was 2023 noch in offenen Briefen auf genau diese Risiken hingewiesen hat, die Schutzwälle rund um die KI Systeme offenbar immer niedriger werden. Die jeweiligen Entwicklungsschritte bei der Weiterentwicklung von KI Systemen bräuchten viel mehr strenge Tests und Rückkopplungsschleifen. Die mit der KI befassten Unternehmen kommen ihrer gesellschaftlichen Verpflichtung immer weniger nach.
Das Wettrennen um Marktanteile um eine Neuverteilung und letztlich die neue Herrschaft im Internet scheint "Spaßbremsen" wie Sicherheitsteams nicht wirklich gebrauchen zu können. Es steht zu fürchten, dass dass die KI-Entwicklung nicht nur bei OpenAI künftig noch weniger sicherheitsorientiert sein wird. Die neuen Zauberlehrlinge der KI machen ihre Arbeit nicht mehr...
Fehlendes Problembewusstsein
Die allzu lockere Haltung des Unternehmens belegt auch der Umgang mit Rechten von Schauspieler*Innen. So hat OpenAI bei der Vorstellung der ChatGPT Version 4o eine Stimme verwendet, die frappierend jener von der Schauspielerin Scarlett Johansson im Film "She" (Spike Jonze USA 2013) ähnelt, obwohl diese im Herbst 2023 abgelehnt hatte, ihre Stimme für den Chatbot zu leihen. Erst nachdem die Schauspielerin ihre Anwälte eingeschaltet hat, wurde die Stimme abgeschaltet.
Es scheint fast, als hätten zahlreiche Autor*Innen in der Vergangenheit, als die Künstliche Intelligenz Jahrzehnte weit entfernt war, in ihren Science Fiction Romanen intensiver darüber nachgedacht, welche Gefahren durch die KI entstehen könnten, als die Verantwortlichen es heute tun, in einer Zeit in der sich die KI mit Riesenschritten vorwärts bewegt. Wenn es die Software-Unternehmen nicht mehr für nötig erachten, ausreichende Sicherheitsnetze rund um die generative KI herum aufzuspannen, ist es vielleicht an der Zeit, dass dies an anderer Stelle geschieht. KI ist nicht die erste technische Entwicklung in der Geschichte der Menschheit, bei der Nutzen und Gefahren dicht beieinander liegen.