Alarm aus der Wissenschaft
Stuart Russell, Professor an der UC Berkeley und Autor des Standardwerks Artificial Intelligence: A Modern Approach, warnt vor einer existentiellen Instabilität durch autonome Systeme. Er kritisiert das aktuelle Paradigma, bei dem die Leistungsfähigkeit von Modellen ohne mathematisch belegbare Sicherheitsgarantien skaliert wird.
Die wissenschaftliche Gemeinschaft debattiert derzeit Russell’s Forderung nach einer Abkehr von „Blackbox-Modellen“. Er argumentiert, dass eine Maschine, deren Zielvorgaben nicht präzise mit menschlichen Werten korrespondieren, eine Gefahr für ihre Umwelt darstellt.
Die Meinung der Fachwelt
- Russell definiert das aktuelle Vorgehen als gefährliches Experiment mit unbekanntem Ausgang.
- Es fehlt ein technisches Framework, das eine Unterordnung der KI unter menschliche Kontrollinstanzen erzwingt.
- Die Vorhersehbarkeit von Entscheidungen sinkt, je komplexer die neuronalen Netze konfiguriert werden.
DeepMind im Wettlauf
Demis Hassabis leitet Google DeepMind, ein Unternehmen, das 2010 unter dem Namen DeepMind Technologies in London gegründet und 2014 für rund 500 Millionen Euro von Google übernommen wurde. Die Firma erlangte durch AlphaGo Bekanntheit, nachdem das Programm 2016 als weltweit erste KI den Weltmeister Lee Sedol im Brettspiel Go schlug.
Hassabis bestätigt, dass der Wettbewerb zwischen Akteuren wie Google, Microsoft und OpenAI Sicherheitsvorkehrungen in den Hintergrund drängt. Der Druck durch Shareholder und die Notwendigkeit, Marktanteile in der Cloud-Infrastruktur zu sichern, erzwingen eine beschleunigte Veröffentlichung von Modellen.
Auswirkungen auf unsere Branche
In der Spielentwicklung dient KI heute vor allem der Effizienzsteigerung bei der Erstellung von Assets. CD Projekt Red nutzte beispielsweise für Cyberpunk 2077 Tools zur automatisierten Synchronisation der Lippenbewegungen in verschiedenen Sprachen, um den manuellen Aufwand für die Lokalisierung zu senken.
Bethesda Softworks setzt bei Titeln wie Skyrim oder Starfield klassische „Radiant AI“-Systeme ein, um Tagesabläufe von NPCs zu steuern. Diese Systeme basieren auf fest programmierten Prioritätenlisten und unterscheiden sich fundamental von den aktuell diskutierten, lernfähigen Modellen (LLMs).
- Ubisoft experimentiert mit dem Tool „Ghostwriter“, das Dialog-Entwürfe für Nebencharaktere generiert.
- Bei Nvidia zielen Technologien wie DLSS (Deep Learning Super Sampling) darauf ab, die Bildrate durch KI-gestützte Hochskalierung zu steigern, ohne die GPU-Last linear zu erhöhen.
- Die Industrie nutzt diese Werkzeuge bisher primär zur Reduktion von Produktionskosten, nicht zur Gestaltung autonomer Spielinhalte.
Faktencheck
- Russell schlägt eine Umstellung auf „provably beneficial“ Systeme vor, bei denen die KI ihre eigene Unsicherheit über menschliche Präferenzen einbezieht.
- Die Hardware-Kapazitäten verdoppeln sich laut Moore’schem Gesetz oder spezialisierten Clustern (wie Nvidias H100-GPs) nahezu alle zwei Jahre.
- Transparenzberichte zeigen, dass selbst Entwickler bei Modellen wie GPT-4 nicht mehr vollständig nachvollziehen können, welche Gewichtungen zu spezifischen Ausgaben führen.
Die Rechenzentren für das Training der neuesten Sprachmodelle verbrauchen derzeit den Strombedarf einer mittleren Kleinstadt. Trotz dieser Ressourcen gibt es keine Standardprotokolle für die Abschaltung oder Begrenzung autonomer Agenten innerhalb eines Netzwerks.