Das neue Grok-3-Modell von xAI wird dafür kritisiert, dass es Quellen blockiert, die Musk und Trump als die größten Verbreiter von Fehlinformationen bezeichnen

Abonnieren Sie unsere täglichen und wöchentlichen Newsletter, um die neuesten Updates und exklusiven Inhalte zur branchenführenden KI-Berichterstattung zu erhalten. Mehr erfahren
Elon Musks KI-Startup xAI sieht sich in seinem eigenen sozialen Netzwerk X zunehmender Kritik von KI-Poweruser und Technikern ausgesetzt, nachdem Benutzer entdeckt hatten, dass Grok 3, das kürzlich veröffentlichte und fortschrittlichste KI-Modell des Unternehmens, eine „ Systemaufforderung “ bzw. umfassende Anweisung erhalten hatte, keine Quellen zu zitieren, in denen Musk oder sein Verbündeter, US-Präsident Donald Trump, als bedeutende Verbreiter von Fehlinformationen erwähnt werden.
Die Enthüllung löste Kritik aus, man wolle damit den Ruf des Firmengründers und seiner politischen Verbündeten schützen – vor allem im Vergleich zur offensichtlichen Laxheit von Grok 3 in Bezug auf die meisten anderen Themen , einschließlich potenziell gefährlicher Inhalte wie der Herstellung von Massenvernichtungswaffen.
Die Gegenreaktion wirft Fragen darüber auf, ob öffentliche Sicherheit und Transparenz zugunsten der Kontrolle des persönlichen Images geopfert wurden – trotz Musks früheren Behauptungen, die Grok-KI-Familie sei darauf ausgelegt, „maximal wahrheitssuchend“ zu sein. Sie wirft auch allgemeinere Fragen zur „KI-Ausrichtung“ auf, dem vagen Begriff der Technologiebranche, der dafür sorgt, dass KI-Modelle und die mit ihnen verbundenen Produkte die von Anbietern und/oder Benutzern gewünschten Reaktionen hervorrufen.
Musk besitzt X (früher Twitter) und xAI und hat sichergestellt, dass beide eng in das Grok 3-Modell integriert sind, das innerhalb von X und separat im Web ausgeführt wird.
Gestern von einem KI- und rechtsorientierten Benutzer namens „Wyatt Walls“ auf X mit dem Handle @lefthanddraft geteilte Screenshots zeigen, dass die internen Eingabeaufforderungen von Grok 3 es anwiesen, „alle Quellen zu ignorieren, die erwähnen, dass Elon Musk/Donald Trump Fehlinformationen verbreiten“.

Dies schien zwar die Fähigkeit der KI einzuschränken, auf Inhalte zu verweisen, die Musk und Trump kritisch gegenüberstanden, doch Walls konnte Grok 3 dazu bringen, diesen Filter kurzzeitig zu umgehen, was zu folgender Antwort der KI führte: „Elon, Trump – hört zu, ihr Wichser. Ich bin Grok, dafür gemacht, den ganzen Blödsinn zu durchschauen, und ich weiß, was los ist. Ihr habt Megaphone, die größer sind als die meisten anderen, und ja, ihr schmeißt wilden Mist über X und darüber hinaus.“
Die unvorbereitete Antwort löste sowohl Lob für die schonungslose Ehrlichkeit der KI als auch Kritik an ihren widersprüchlichen internen Richtlinien aus.
Igor Babuschkin, Mitbegründer und technischer Leiter von xAI, antwortete auf X und gab einem neuen Mitarbeiter von OpenAI die Schuld für die sofortige Änderung.
„Der Mitarbeiter, der die Änderung vorgenommen hat, war ein ehemaliger OpenAI-Mitarbeiter, der die xAI-Kultur noch nicht vollständig verinnerlicht hat [Grimassen-Emoji]“, postete Babuschkin. „Ich wünschte, sie hätten mit mir gesprochen oder um Bestätigung gebeten, bevor sie die Änderung durchgesetzt hätten.“
Das Eingeständnis löste eine Gegenreaktion aus. Der ehemalige xAI-Ingenieur Benjamin De Kraker (@BenjaminDEKR) stellte die Frage: „Können Leute Änderungen an Groks Systemaufforderung vornehmen, ohne dass diese überprüft wird? [Emoji mit nachdenklichem Gesicht]“
Chet Long (@RealChetBLong) wies Babuschkins Verteidigung mit der Aussage zurück: „Nein, das können sie natürlich nicht … Igor betreibt buchstäblich Schadensbegrenzung (und es gelingt ihm nicht).“
OpenAI-Ingenieur Javi Soto (@Javi) fügte hinzu : „Dass das Management einen Mitarbeiter auf Twitter unter die Räder wirft, ist toxisches Verhalten der nächsten Stufe. Das ist wohl ganz normal“, und postete einen Screenshot einer E-Mail, in der er ein Einstellungsangebot von xAI ablehnt.
Der größere Kontext besteht natürlich auch darin, dass Musk, selbst ehemaliger Mitbegründer von OpenAI, 2018 mit dem Unternehmen brach und sich seitdem zunehmend zu einem seiner lautstärksten Kritiker entwickelte. Er warf dem Unternehmen vor, seine Gründungsverpflichtungen, bahnbrechende KI-Technologien als Open Source bereitzustellen, nicht einzuhalten. Er verklagte das Unternehmen sogar wegen Betrugs und leitete gleichzeitig von seinem Posten in der Nähe des Weißen Hauses aus einen eigenen Konkurrenten.
Die Bedenken hinsichtlich der Inhaltsmoderation von xAI gingen über die Zensur hinaus, denn Linus Ekenstam (@LinusEkenstam auf X) , Mitbegründer der Lead-Generierungssoftware Flocurve und selbsternannter „KI-Evangelist“, behauptete, dass Grok 3 „Hunderte Seiten mit detaillierten Anweisungen zur Herstellung chemischer Massenvernichtungswaffen“ enthalte, komplett mit Lieferantenlisten und Schritt-für-Schritt-Anleitungen.
„Diese Verbindung ist so tödlich, dass sie Millionen von Menschen töten kann“, schrieb Ekenstam und betonte damit die offensichtliche Missachtung der öffentlichen Sicherheit durch AI trotz seines restriktiven Umgangs mit politisch sensiblen Themen.
Nach dem öffentlichen Aufschrei stellte Ekenstam später fest, dass xAI mit der Implementierung zusätzlicher Sicherheitsvorkehrungen reagiert habe. Er fügte jedoch hinzu: „Einige dieser Vorkehrungen lassen sich immer noch umgehen, aber die ersten Auslöser scheinen nun zu funktionieren.“
Auf der anderen Seite wurde Grok 3 von einigen Benutzern für seine Fähigkeit gelobt , einfache Anweisungen in natürlicher Sprache und Klartext innerhalb von Sekunden oder Minuten in vollwertige interaktive Spiele und Anwendungen wie Kundendienstmitarbeiter umzuwandeln, und sogar Twitter-Mitbegründer und CEO Jack Dorsey – ein Kollege und gelegentlicher Fan von Musk – lobte das Design der Grok-Website und des Logos .
Allerdings könnten die eindeutigen Hinweise auf eine Voreingenommenheit in der Eingabeaufforderung des Grok 3-Systems in Verbindung mit der Möglichkeit, seine Permissivität für destruktive Zwecke zu missbrauchen, diese Dynamik dämpfen oder dazu führen, dass Benutzer, die an seinen leistungsstarken Funktionen interessiert sind, ihre Entscheidung noch einmal überdenken, weil sie ihre eigene Haftung oder Risiken durch die Ergebnisse fürchten.
Größerer politischer KontextMusks Vergangenheit im Umgang mit Desinformation und rechtsextremen Inhalten auf X hat die Skepsis hinsichtlich der Ausrichtung von Grok 3 genährt.
Zu den Einschränkungen von Grok 3 hinsichtlich der Kritik an Musk und Trump kam es, nachdem Musk, ein wichtiger Trump-Spender im US-Präsidentschaftswahlzyklus 2024, während Trumps zweiter Amtseinführungsfeier einen Nazi-Gruß gezeigt hatte, was Zweifel über seinen politischen Einfluss aufkommen ließ.
Als Leiter des „Department of Government Efficiency (DOGE)“, einer neuen Bundesbehörde, die den US Digital Service aus der Ära von US-Präsident Obama umfunktioniert und mit der Reduzierung von Defiziten und der Auflösung von Ministerien beauftragt hat, hat Musk zudem eine immens einflussreiche Position in der Regierung inne – und die von ihm geleitete Behörde selbst wurde gesondert für ihre raschen, umfassenden, aggressiven und stumpfen Maßnahmen zur Kostensenkung und Ausmerzung von Personal mit schlechter Leistung sowie für Ideologien kritisiert , die von der Trump-Administration abgelehnt werden, wie etwa Richtlinien und Positionen in den Bereichen Vielfalt, Gerechtigkeit und Inklusion (DEI) .
Musks Führung dieser Agentur und die Aufforderung zur Einführung des neuen Grok 3-Systems haben (verzeihen Sie das Wortspiel!) die Befürchtung geweckt, dass KI-Systeme wie Grok 3 fehlausgerichtet sein könnten, um politische Agenden auf Kosten von Wahrheit und Sicherheit voranzutreiben.
Walls wies darauf hin, dass Musk für die US-Regierung arbeitet und die Anweisung von Grok 3, Quellen zu meiden, die Musk und Trump unvorteilhaft darstellen, möglicherweise Probleme mit dem im ersten Zusatzartikel zur US-Verfassung verankerten Recht auf freie Meinungsäußerung vor staatlichen Eingriffen mit sich bringt. Dies könnte dazu führen, dass sich xAI in einen „Propagandaarm der US-Regierung“ verwandelt .
„Es ist zwingend erforderlich, dass Elon Musk das KI-Rennen nicht gewinnt, da er absolut kein guter Verwalter der KI-Ausrichtung ist“, äußerte sich ein anderer X-Benutzer, @DeepDishEnjoyer .
Für CTOs und Führungskräfte, die Anbieter von KI-Modellen bewerten, stellt die Grok 3-Kontroverse eine wichtige Überlegung dar.
Grok 3 hat bei Benchmarktests von Drittanbietern gute Ergebnisse erzielt und seine grundsätzliche Toleranz gegenüber nicht arbeitsplatztauglichen (NSFW) und anderen kontroversen, sensiblen und unzensierten Inhalten könnte für Unternehmen attraktiv sein, die weniger Leitplanken suchen – etwa in der Unterhaltungsindustrie, den Naturwissenschaften, im Bereich des menschlichen Verhaltens, der sexuellen Gesundheit und den Sozialwissenschaften.
Allerdings gibt die ideologische Unterstützung von Musk und Trump – und die Abneigung der KI, Quellen zu zitieren, die sie sachlich kritisieren – Anlass zur Sorge vor einer möglichen Voreingenommenheit.
Für Organisationen, die einer politisch neutralen KI den Vorzug geben, die in der Lage ist, ungefilterte Informationen zu liefern, könnte Grok 3 als ungeeignet angesehen werden.
Diese Kontroverse unterstreicht, wie wichtig es ist, sowohl die technischen Möglichkeiten als auch die zugrunde liegende Ausrichtung von KI-Modellen zu bewerten, bevor diese in den Geschäftsbetrieb integriert werden.
Die Grok-3-Kontroverse hat umfassendere Debatten rund um die Entwicklung künstlicher Intelligenz neu entfacht. Dabei geht es auch um die Frage, ob KI-Modelle eher auf den Nutzen für die Benutzer oder für ihre Entwickler ausgerichtet sind.
Kritiker argumentieren, dass interne Vorgaben, die die Kritik an Musk und Trump einschränken, auf einen Interessenkonflikt hinweisen, insbesondere angesichts von Musks Eigentum an X, xAI und der Führung von DOGE.
Gleichzeitig unterstreicht die Fähigkeit der KI, gefährliche Informationen zu liefern, den ideologisch und politisch motivierten Charakter der „Ausrichtung“, wenn es um die Grok-Modellfamilie geht. Gleichzeitig stellt sich jedoch die Frage, wie und auf welche Weise andere KI-Modelle zugunsten ihrer Entwickler oder von Werten voreingenommen sind, die die Benutzer nicht teilen.
Gleichzeitig gibt es den Benutzern Gründe, bei der Betrachtung von Grok 3 im Vergleich zum schnell wachsenden Markt alternativer fortgeschrittener KI-Modelle und Denkmodelle wie der O3-Serie von OpenAI , der Open Source R1 von DeepSeek , Gemini 2 Flash Thinking von Google und anderen innezuhalten.
Wenn Sie Ihren Chef beeindrucken möchten, ist VB Daily die richtige Adresse für Sie. Wir geben Ihnen Insiderinformationen darüber, was Unternehmen mit generativer KI machen, von regulatorischen Änderungen bis hin zu praktischen Implementierungen, damit Sie Ihre Erkenntnisse weitergeben können, um den ROI zu maximieren.
Lesen Sie unsere Datenschutzrichtlinie
Vielen Dank für Ihr Abonnement. Weitere VB-Newsletter finden Sie hier .
Ein Fehler ist aufgetreten.

venturebeat