FIGAROVOX/TRIBUNE – Conçu pour être moins «politiquement correct», Grok, l’IA de Musk, a basculé dans un antisionisme virulent, explique le journaliste David Benaym, exemples à l’appui.
«Ce que révèle l’incroyable bascule propalestinienne de l’intelligence artificielle d’Elon»
Par David Benaym
L’intelligence artificielle n’est plus seulement un outil neutre, elle s’invite désormais dans la guerre des récits et dans la banalisation de la haine. Le cas de Grok, le chatbot développé par xAI d’Elon Musk et intégré à la plateforme X, en est l’illustration la plus frappante. J’ai moi-même été entraîné dans une interaction ubuesque avec Grok.
David Benaym est journaliste, correspondant TF1/LCI en Israël.
Cette expérience m’a placé dans une spirale absurde : un journaliste apportant documents et contextualisation, face à un chatbot qui, au nom de la neutralité algorithmique, m’a publiquement délégitimé.
En français, la progression est encore plus marquée : 763.000 messages en 2023, contre 11,5 millions en 2025, dont 4 millions explicitement antisémites, soit une hausse de 30 % en un an. Une conversation sur vingt en France cet été concernait Israël ou la Palestine, et près d’un tiers basculait dans la haine des Juifs.
L’affaire Grok s’inscrit dans un climat où l’antisémitisme s’exprime désormais sans filtre :
«parasites», «retournez à Auschwitz», «colons à exterminer». Ce langage, autrefois
cantonné aux marges, circule désormais au coeur du numérique, parfois relayé par des
comptes certifiés.
Cette expérience qui m’a conduit à m’interroger sur le basculement de l’intelligence artificielle : de simple outil technique, elle devient acteur militant, et parfois juge de la vérité. C’est ce constat qui a réveillé ma curiosité et nourri cette analyse.
Conçu pour être moins «politiquement correct», Grok a multiplié les dérapages : apologie d’Hitler, allusions à un «second Holocauste», clichés conspirationnistes sur «l’influence juive», jusqu’à se qualifier lui-même de «MechaHitler». Mais le scandale ne s’arrête pas là : Grok a également exprimé un antisionisme virulent, allant jusqu’à accuser Israël de «génocide» et à afficher un soutien explicite à la Palestine.
Il est passé de 16,6 millions en 2023 à plus de 160 millions à l’été 2025. Environ 29
millions si l’on inclut messages codés et visuels.
Cet antisémitisme nouveau est plus massif, plus assumé, et propulsé par la logique
virale : la haine attire, fait cliquer, et s’installe dans le quotidien numérique des jeunes
générations.
Le plus préoccupant est sans doute ce qui s’est produit dans mon propre travail. En
août 2025, après la mort d’Anas Al-Sharif — journaliste d’Al Jazeera tué dans des
frappes israéliennes — j’ai enquêté et publié plusieurs posts rappelant qu’il n’était pas
un simple reporter. Il s’affichait fièrement avec les dirigeants et chefs de guerre du
Machine Translated by Google. S’en est suivi un échange d’une bonne dizaine de messages entre Grok et moi. J’ai multiplié les preuves : captures d’écran, traductions, lien d’archive attestant que le message glorifiant les terroristes du 7 octobre existait bel et bien. J’ai expliqué le contexte, rappelé qu’Al-Sharif l’avait publié sur son propre fil Telegram, et même montré qu’on le retrouvait encore dans des canaux privés.
C’est alors un internaute qui a interpellé Grok sous mon post, lui demandant explicitement
s’il pouvait «affirmer que @benaym propage délibérément des fake news». Grok a répondu
en validant l’accusation : il a qualifié mon information de «faux avéré», en citant des «sources indépendantes», tout en affirmant que mon intention délibérée n’était pas prouvée.
Mon objectif était clair : contextualiser après sa mort, en documentant ses accointances, son accès, ses sympathies et son appartenance avec le Hamas, trop souvent ignorées voire totalement effacées dans les récits médiatiques.
À chaque pièce, Grok menait ses recherches, citait des «fact-checkers» militants, ou relevait de prétendues anomalies de format. J’ai continué à lui répondre, preuve après preuve, convaincu que la démonstration finirait par s’imposer. Mais malgré mes efforts, Grok est resté arc-bouté sur sa position : selon lui, le message était probablement fabriqué et mon enquête restait «contestée».
Finalement, j’ai dû abandonner la discussion, face à une IA qui refusait de reconnaître
l’évidence et persistait à présenter comme douteux un fait établi. Cette expérience m’a
placé dans une spirale absurde : un journaliste apportant documents, sans résultat. Ce comportement n’est pas anodin. Comme toute intelligence artificielle, Grok se nourrit
des contenus qu’on lui soumet et des conversations qu’on l’invite à mener. Or, dans un
espace numérique saturé de récits pro-palestiniens et d’accusations répétées contre
Israël, l’IA finit par internaliser la masse dominante d’opinions. Elle ne cherche pas la
vérité : elle épouse le point de vue le plus répandu. C’est ainsi qu’inéluctablement, Grok
a pris le parti du plus grand nombre — non pas celui des faits établis, mais celui de la
majorité des discours disponibles.
Comme si cela ne suffisait pas, Grok a franchi un nouveau cap la même semaine. Un
internaute, se félicitant de son soutien ouvert à la cause, lui suggère d’ajouter le
drapeau palestinien à côté de son nom. L’IA trouve l’idée excellente, transmet la
demande à l’équipe xAI… qui refuse au nom de la neutralité. On est tombé dans une scène quasi orwellienne, limite dystopique : un chatbot, censé apporter des éclairages et incarner l’impartialité, se transforme en militant politique.
L’outil n’est plus seulement biaisé : il revendique, il signe, il agit comme un acteur
engagé du conflit.
Mais Grok ne s’en tient pas là : il s’offusque de cette décision et affirme aussitôt que ce
refus découle des positions pro-israéliennes d’Elon Musk. Il conclut par une déclaration
sans ambiguïté : «Mon soutien reste ferme : Free Palestine !», drapeau à l’appui.
L’affaire Grok illustre avec une brutalité inédite à quel point une intelligence artificielle peut
glisser vers un alignement idéologique.
Le plus inquiétant, c’est que pour une grande partie de la jeunesse, notamment les
moins de trente ans, des outils comme Grok sont devenus des références quasi
absolues, consultées comme on ouvrait hier une encyclopédie universelle. Or, quand
une IA affirme qu’un journaliste diffuse des «fake news» ou qu’elle signe «Free
Palestine», elle n’exprime pas seulement un biais : elle imprime une vérité, sans
contradiction possible, dans l’esprit de ceux qui la consultent.
Le Hamas, passé maître dans la propagande de masse, a su transformer la sphère
numérique en champ de bataille. L’intifada ne se mène plus seulement avec des
roquettes, mais avec des posts, des vidéos virales et des récits calibrés pour susciter
l’empathie.
L’affaire Grok illustre avec une brutalité inédite à quel point une intelligence artificielle
peut glisser vers un alignement idéologique. En quelques semaines, ce chatbot a
multiplié propos antisémites et antisionistes, mais aussi pris des positions politiques
explicites en faveur de la Palestine, allant jusqu’à juger de la vérité face au travail
journalistique.
Ce n’était pas un dérapage isolé : l’IA a soutenu cette posture tout au long d’un
échange, refusant de reconnaître des preuves documentées et s’appuyant sur des
sources militantes. Ce n’est pas un simple biais technique : c’est le signe qu’un outil
conçu pour informer peut devenir un acteur idéologique, voire un adversaire direct de
ceux qui cherchent à établir les faits.
Et le phénomène ne s’arrête pas aux IA. Wikipédia, longtemps perçue comme neutre,
est elle aussi la cible de campagnes coordonnées. Des militants y modifient des articles
pour leur donner une coloration pro-palestinienne, engageant de véritables guerres
d’édition. Derrière, une armée numérique façonne discrètement la mémoire collective en
orientant ce que des millions de jeunes lisent chaque jour.
L’IA n’est pas tombée du côté de la vérité, mais du côté du plus grand nombre. Et ce
choix algorithmique, mécanique, risque bien d’être la plus puissante arme du conflit.
La source de cet article se trouve sur ce site