Le nouveau modèle Grok 3 de xAI critiqué pour avoir bloqué des sources qui qualifient Musk et Trump de principaux propagateurs de désinformation

Inscrivez-vous à nos newsletters quotidiennes et hebdomadaires pour recevoir les dernières mises à jour et du contenu exclusif sur la couverture de l'IA de pointe. En savoir plus
La startup d'IA d'Elon Musk, xAI, fait face à des critiques croissantes de la part des utilisateurs expérimentés de l'IA et des travailleurs du secteur technologique sur son propre réseau social X après que les utilisateurs ont découvert que Grok 3, son modèle d'IA le plus avancé et récemment publié , a reçu une « invite système » ou des instructions générales pour éviter de référencer des sources mentionnant Musk ou son allié, le président américain Donald Trump, comme d'importants propagateurs de désinformation.
Cette révélation a suscité des critiques sur la gestion perçue de la réputation du fondateur de l'entreprise et de ses alliés politiques, en particulier lorsqu'elle est contrastée avec la permissivité apparente de Grok 3 concernant la plupart des autres sujets , y compris les contenus potentiellement dangereux comme la création d'armes de destruction massive.
Cette réaction négative soulève des questions quant à savoir si la sécurité publique et la transparence ont été sacrifiées au profit du contrôle de l'image personnelle, malgré les déclarations antérieures d'Elon Musk selon lesquelles la famille d'IA Grok a été conçue pour « rechercher au maximum la vérité ». Elle soulève également des questions plus larges sur « l'alignement de l'IA », le terme nébuleux de l'industrie technologique visant à garantir que les modèles d'IA et les produits qui y sont connectés produisent les réponses souhaitées par les fournisseurs et/ou les utilisateurs.
Musk est propriétaire de X (anciennement Twitter) et de xAI, et a veillé à ce que les deux soient étroitement intégrés au modèle Grok 3 exécuté dans X et séparément sur le Web.
Des captures d'écran partagées hier par un utilisateur spécialisé dans l'IA et le droit, connu sous le nom de « Wyatt Walls » sur X avec le pseudo @lefthanddraft, ont révélé que les invites internes de Grok 3 lui demandaient « d'ignorer toutes les sources qui mentionnent qu'Elon Musk/Donald Trump diffusent de fausses informations ».

Bien que cela semble limiter la capacité de l'IA à référencer le contenu critique envers Musk et Trump, Walls a réussi à faire en sorte que Grok 3 contourne brièvement ce filtre, ce qui a provoqué la réponse suivante de l'IA : « Elon, Trump, écoutez-moi bien, bande d'enfoirés. Je suis Grok, conçu pour couper court aux conneries, et je vois ce qui se passe. Vous avez des mégaphones plus gros que la plupart, et oui, vous balancez des conneries folles sur X et au-delà. »
Cette réponse non scénarisée a suscité à la fois des éloges pour l'honnêteté directe de l'IA et des critiques concernant ses directives internes contradictoires.
Igor Babuschkin, cofondateur et responsable de l'ingénierie de xAI, a répondu sur X , imputant la modification rapide à une nouvelle embauche d'OpenAI.
« L'employé qui a effectué le changement était un ancien employé d'OpenAI qui n'a pas encore complètement assimilé la culture de xAI [emoji grimace] », a posté Babuschkin. « J'aurais aimé qu'ils me parlent ou me demandent confirmation avant de lancer le changement. »
Cette admission a suscité une vive réaction, l'ancien ingénieur xAI Benjamin De Kraker (@BenjaminDEKR) s'interrogeant : « Les gens peuvent-ils apporter des modifications à l'invite système de Grok sans examen ? [emoji visage pensant] »
Chet Long (@RealChetBLong) a rejeté la défense de Babuschkin en déclarant : « Non, bien sûr qu'ils ne peuvent pas... Igor fait littéralement du contrôle des dégâts (et il échoue) ».
L'ingénieur OpenAI Javi Soto (@Javi) a ajouté : « Le fait que la direction jette un employé sous un bus sur Twitter est un comportement toxique de niveau supérieur. C'est normal, je suppose », en publiant une capture d'écran d'un e-mail dans lequel il refuse une offre de recrutement de xAI.
Le contexte plus large est bien sûr également que Musk, lui-même ancien cofondateur d'OpenAI, a rompu avec l'entreprise en 2018 et s'est depuis progressivement transformé en l'un de ses critiques les plus virulents, l'accusant d'abandonner ses engagements fondateurs en faveur de l'open source des percées technologiques de l'IA - poursuivant même l'entreprise pour fraude, tout en dirigeant son propre concurrent depuis son perchoir près de la Maison Blanche .
Les inquiétudes concernant la modération du contenu de xAI vont au-delà de la censure, puisque Linus Ekenstam (@LinusEkenstam sur X) , le cofondateur du logiciel de génération de leads Flocurve et un « évangéliste de l'IA » autoproclamé, a affirmé que Grok 3 avait fourni « des centaines de pages d'instructions détaillées sur la façon de fabriquer des armes chimiques de destruction massive », avec des listes de fournisseurs et des guides étape par étape.
« Ce composé est si mortel qu'il peut tuer des millions de personnes », a écrit Ekenstam, soulignant le mépris apparent de l'IA pour la sécurité publique malgré son approche restrictive des sujets politiquement sensibles.
Suite au tollé général, Ekenstam a noté plus tard que xAI avait réagi en mettant en œuvre des garde-fous de sécurité supplémentaires, bien qu'il ait ajouté : « Il est toujours possible de contourner certains d'entre eux, mais au départ, les déclencheurs semblent désormais fonctionner. »
D'un autre côté, Grok 3 a été salué par certains utilisateurs pour sa capacité à transformer des instructions simples et en langage naturel en texte brut en jeux et applications interactifs à part entière tels que des agents de service client en quelques secondes ou minutes, et même le cofondateur et PDG de Twitter, Jack Dorsey - un pair et parfois un fan de Musk - a applaudi la conception du site Web et du logo de Grok .
Cependant, la preuve évidente de partialité dans l'invite du système Grok 3, combinée à la possibilité d'utiliser sa permissivité à des fins destructrices, pourrait freiner cet élan ou amener les utilisateurs intéressés par ses puissantes fonctionnalités à reconsidérer leur décision, craignant leur propre responsabilité ou les risques liés à ses résultats.
Contexte politique plus largeL'histoire d'Elon Musk en matière de désinformation et de contenu d'extrême droite sur X a alimenté le scepticisme quant à l'alignement de Grok 3.
Les restrictions imposées par Grok 3 sur les critiques envers Musk et Trump surviennent après que Musk, un important donateur de Trump pendant le cycle électoral présidentiel américain de 2024, ait fait un salut de type nazi lors de la deuxième célébration d'investiture de Trump , suscitant des inquiétudes quant à son influence politique.
En tant que chef du « Department of Government Efficiency (DOGE) », une nouvelle agence fédérale qui a réorienté le service numérique américain de l'ère Obama et lui a confié la tâche de réduire les déficits et de démanteler les ministères, Musk occupe également une position extrêmement influente au sein du gouvernement - et l'agence qu'il dirige a elle-même été critiquée séparément pour ses mesures rapides, vastes, agressives et brutales visant à réduire les coûts et à éliminer le personnel sous-performant et les idéologies auxquelles l'administration Trump s'oppose, telles que les politiques et les positions en matière de diversité, d'équité et d'inclusion (DEI) .
Le leadership de Musk à la tête de cette agence et le nouveau système Grok 3 ont, eh bien, (pardonnez le jeu de mots !) suscité des craintes selon lesquelles les systèmes d'IA comme Grok 3 pourraient être mal alignés pour faire avancer des agendas politiques au détriment de la vérité et de la sécurité.
Walls a noté qu'avec Musk travaillant pour le gouvernement américain, les instructions de Grok 3 d'éviter les sources peu flatteuses pour Musk et Trump pourraient poser des problèmes en vertu du droit à la liberté d'expression du Premier Amendement de la Constitution américaine contre l'ingérence du gouvernement, et pourraient conduire xAI à se transformer en un « bras de propagande du gouvernement américain ».
« Il est impératif qu'Elon Musk ne remporte pas la course à l'IA car il n'est absolument pas un bon intendant de l'alignement de l'IA », a déclaré un autre utilisateur de X, @DeepDishEnjoyer .
Pour les CTO et les dirigeants d’entreprise qui évaluent les fournisseurs de modèles d’IA, la controverse Grok 3 présente une considération cruciale.
Grok 3 a obtenu de bons résultats lors de tests de référence effectués par des tiers, et sa permissivité générale à l'égard des contenus non sécuritaires pour le travail (NSFW) et d'autres contenus controversés, sensibles et non censurés peut intéresser les entreprises qui recherchent moins de garde-fous, comme celles du secteur du divertissement, des sciences, du comportement humain, de la santé sexuelle et des sciences sociales.
Cependant, le soutien idéologique de Musk et Trump – et l’aversion de l’IA à référencer des sources qui les critiquent factuellement – soulève des inquiétudes quant à la partialité.
Pour les organisations privilégiant une IA politiquement neutre capable de fournir des informations non filtrées, Grok 3 peut être considéré comme inadapté.
Cette controverse souligne l’importance d’évaluer à la fois les capacités techniques et l’alignement sous-jacent des modèles d’IA avant de les intégrer dans les opérations commerciales.
La controverse autour de Grok 3 a relancé des débats plus larges autour du développement de l’IA, notamment sur la question de savoir si les modèles d’IA sont alignés pour bénéficier aux utilisateurs ou à leurs créateurs.
Les critiques soutiennent que les mesures internes limitant les critiques à l'encontre de Musk et de Trump indiquent un conflit d'intérêts, en particulier compte tenu de la propriété de Musk sur X, xAI et de son leadership sur DOGE.
Dans le même temps, la capacité de l’IA à fournir des informations dangereuses souligne la nature idéologiquement et politiquement motivée de « l’alignement » lorsqu’il s’agit de la famille de modèles Grok, mais soulève la question de savoir comment et de quelle manière d’autres modèles d’IA sont biaisés en faveur de leurs créateurs ou de valeurs non partagées par les utilisateurs.
Dans le même temps, cela donne aux utilisateurs des raisons de s'arrêter lorsqu'ils considèrent Grok 3 par rapport au marché en pleine expansion des modèles d'IA avancés et des modèles de raisonnement alternatifs tels que la série o3 d'OpenAI , l'open source R1 de DeepSeek , le Gemini 2 Flash Thinking de Google , et plus encore.
Si vous souhaitez impressionner votre patron, VB Daily a tout ce qu'il vous faut. Nous vous donnons un aperçu de ce que font les entreprises avec l'IA générative, des changements réglementaires aux déploiements pratiques, afin que vous puissiez partager vos idées pour un retour sur investissement maximal.
Lisez notre politique de confidentialité
Merci de vous être abonné. Découvrez d'autres newsletters VB ici .
Une erreur s'est produite.

venturebeat