Pour faire suite à ma publication du 13 septembre concernant le réseau ✘ et le chatbot Grok-2, je partage avec vous un article de Kate O’Flaherty publié le 9 septembre dans le magazine Wired. J’écrivais : « Toutes ces images et vidéos générées par l’IA brouillent l’esprit et insufflent un poison nocif pour l’âme. Les gens qui croient s’amuser en utilisant le test bêta de Grok-2 sont en réalité les cobayes d’une énième étude marketing et comportementale. En fait, leurs données personnelles sont utilisées afin de bâtir un empire du mensonge dans lequel,― éventuellement ―, les gens seront incapables de différencier le vrai du faux. » Pour sa part, la journaliste spécialisée dans la cybersécurité et la confidentialité écrit en introduction : « L’outil d’IA générative de xAI, Grok AI, est déséquilibré par rapport à ses concurrents. Il récupère également une tonne de données que les gens publient sur X. Voici comment garder vos publications hors de Grok et pourquoi vous devriez le faire. » ― Je vous souhaite une bonne lecture.
😁 Si vous appréciez cet article, n’hésitez pas à faire un don à votre guise. Merci.En 2015, Elon Musk et Sam Altman ont cofondé OpenAI sur la base d’une philosophie apparemment éthique : développer une technologie d’IA qui profite à l’humanité, plutôt qu’à des systèmes contrôlés par de grosses sociétés. Dix ans plus tard, au cours desquels Musk et Altman se sont disputés, les choses semblent bien différentes. Au milieu des batailles juridiques avec son ami et ancien partenaire commercial, la dernière entreprise d’Elon Musk, xAI, a lancé son propre concurrent puissant, Grok AI. Décrit comme « un assistant de recherche IA avec une touche d’humour et une pointe de rébellion », Grok est conçu pour avoir moins de garde-fous que ses principaux concurrents. Sans surprise, Grok est sujet aux hallucinations et aux préjugés, l’assistant IA étant accusé de diffuser de fausses informations sur les élections de 2024.
Dans le même temps, ses pratiques en matière de protection des données font l’objet d’un examen minutieux. En juillet, Musk s’est attiré les foudres des régulateurs européens après qu’il est apparu que les utilisateurs de la plateforme X avaient automatiquement accepté que leurs messages soient utilisés pour former Grok. Les capacités de génération d’images du modèle de langage Grok-2 suscitent également des inquiétudes. Peu après le lancement en août, les utilisateurs ont démontré à quel point il était facile de créer des représentations scandaleuses et incendiaires de personnalités politiques, dont Kamala Harris et Donald Trump.
Alors, quels sont les principaux problèmes avec Grok AI et comment pouvez-vous protéger vos données X pour qu’elles ne soient pas utilisées pour l’entraîner ?
Intégration profonde
Elon Musk intègre Grok en profondeur dans X, l’utilisant pour personnaliser les flux d’actualités et la composition des publications. Pour l’instant, il est en version bêta et n’est disponible que pour les abonnés Premium+. Parmi les avantages, l’accès aux données en temps réel de X permet à Grok de discuter des événements actuels au fur et à mesure qu’ils se déroulent, explique Camden Woollven, responsable du groupe IA chez GRC International Group, un cabinet de conseil proposant des services de protection des données et de confidentialité.
Pour se démarquer de ses concurrents, Grok se veut « transparent et anti-woke », explique Nathan Marlor, responsable des données et de l’IA chez Version 1, une entreprise qui aide les entreprises à adopter des technologies telles que l’IA. Pour des raisons de transparence, l’équipe de Grok a rendu l’algorithme sous-jacent open source plus tôt cette année. Cependant, dans sa quête d’une position « anti-woke », Grok a été conçu avec « beaucoup moins de garde-fous » et « moins de considération pour les préjugés » que ses homologues, notamment OpenAI et Anthropic, explique Marlor. « Cette approche en fait sans doute un reflet plus précis des données d’entraînement sous-jacentes – Internet – mais elle a également tendance à perpétuer un contenu biaisé. »
Grok étant un outil très ouvert et relativement peu contrôlé, l’assistant IA a été surpris en train de diffuser de fausses informations sur les élections américaines. Des responsables électoraux du Minnesota, du Nouveau-Mexique, du Michigan, de Washington et de Pennsylvanie ont envoyé une lettre de plainte à Musk, après que Grok a fourni de fausses informations sur les délais de vote dans leurs États. Grok a rapidement réagi à ce problème. Le chatbot IA dira désormais : « pour des informations précises et à jour sur les élections américaines de 2024, veuillez visiter Vote.gov », lorsqu’on lui posera des questions liées aux élections, selon The Verge.
Mais X précise également que c’est à l’utilisateur de juger de la précision de l’IA. « Il s’agit d’une version préliminaire de Grok », indique xAI sur sa page d’aide. Par conséquent, le chatbot peut « fournir en toute confiance des informations factuellement incorrectes, mal résumer ou manquer de contexte », prévient xAI. « Nous vous encourageons à vérifier de manière indépendante toute information que vous recevez », ajoute xAI. « Veuillez ne pas partager de données personnelles ou d’informations sensibles et confidentielles dans vos conversations avec Grok. »
« Je ne participerai pas à cette hypocrisie ambiante et à ce cirque des fous. Je ne collaborerai pas non plus à nourrir cette bête du mensonge. » ― Guy Boulianne
Collecte de données Grok
La collecte de grandes quantités de données constitue un autre sujet de préoccupation, d’autant plus que vous avez automatiquement choisi de partager vos données X avec Grok, que vous utilisiez ou non l’assistant IA. La page du centre d’aide Grok décrit comment xAI « peut utiliser vos publications X ainsi que vos interactions, entrées et résultats d’utilisateur avec Grok à des fins de formation et de réglage fin ».
La stratégie de formation de Grok comporte « des implications significatives en matière de protection de la vie privée », explique Marijus Briedis, directeur de la technologie chez NordVPN. Au-delà de la « capacité de l’outil d’IA à accéder à des informations potentiellement privées ou sensibles et à les analyser », ajoute Briedis, il existe d’autres préoccupations « compte tenu de la capacité de l’IA à générer des images et du contenu avec une modération minimale ».
Alors que Grok-1 a été formé sur des « données accessibles au public jusqu’au troisième trimestre 2023 » mais n’a pas été « pré-formé sur des données X (y compris les publications X publiques) », selon la société, Grok-2 a été explicitement formé sur toutes les « publications, interactions, entrées et résultats » des utilisateurs X, tout le monde étant automatiquement inscrit, explique Angus Allan, chef de produit senior chez CreateFuture, un cabinet de conseil numérique spécialisé dans le déploiement de l’IA.
Le règlement général sur la protection des données (RGPD) de l’UE stipule explicitement qu’il faut obtenir le consentement préalable pour utiliser les données personnelles. Dans ce cas précis, xAI a peut-être « ignoré cela pour Grok », explique Allan.
Cela a conduit les régulateurs de l’UE à faire pression sur X pour qu’il suspende la formation des utilisateurs de l’UE quelques jours après le lancement de Grok-2 le mois dernier.
Le non-respect des lois sur la protection de la vie privée des utilisateurs pourrait entraîner des contrôles réglementaires dans d’autres pays. Bien que les États-Unis ne disposent pas d’un régime similaire, la Federal Trade Commission a déjà infligé une amende à Twitter pour ne pas avoir respecté les préférences de confidentialité des utilisateurs, souligne Allan.
Désinscription
Pour éviter que vos publications ne soient utilisées pour l’entraînement de Grok, vous pouvez rendre votre compte privé. Vous pouvez également utiliser les paramètres de confidentialité de X pour refuser toute formation future de modèle.
Pour ce faire, sélectionnez Confidentialité et sécurité > Partage des données et personnalisation > Grok. Dans Partage des données, décochez l’option « Permettre à vos posts ainsi qu’à vos interactions, saisies dans Grok et résultats associés d’être utilisés à des fins de formation et d’ajustement ».
Même si vous n’utilisez plus X, il est toujours utile de vous connecter et de vous désinscrire. X peut utiliser tous vos messages passés, y compris les images, pour former de futurs modèles, à moins que vous ne lui disiez explicitement de ne pas le faire, prévient Allan.
Il est possible de supprimer l’intégralité de l’historique de vos conversations en une seule fois, indique xAI. Les conversations supprimées sont supprimées de ses systèmes dans un délai de 30 jours, à moins que l’entreprise ne doive les conserver pour des raisons de sécurité ou juridiques.
Personne ne sait comment Grok évoluera, mais à en juger par ses actions jusqu’à présent, l’assistant IA d’Elon Musk mérite d’être surveillé. Pour préserver la sécurité de vos données, faites attention au contenu que vous partagez sur X et tenez-vous informé des mises à jour de ses politiques de confidentialité ou de ses conditions d’utilisation, explique M. Briedis. « En modifiant ces paramètres, vous pouvez mieux contrôler la manière dont vos informations sont traitées et potentiellement utilisées par des technologies comme Grok. »
Abonnez-vous à ma lettre d’information
Et recevez un code de réduction de 40 % pour l’adhésion à mon Club VIP.
« J'en profite pour vous féliciter pour votre travail de recherche. C'est toujours éclairant de vous lire, d'autant plus que vous prenez la peine de bien vérifier vos infos. »
VEUILLEZ NOTER : Les commentaires des lecteurs et lectrices peuvent être approuvés ou non, à ma seule discrétion et sans préavis. Merci de votre compréhension. — Guy Boulianne
En tant qu’auteur et chroniqueur indépendant, Guy Boulianne est membre du réseau d’auteurs et d’éditeurs Authorsden aux États-Unis, de la Nonfiction Authors Association (NFAA), ainsi que de la Society of Professional Journalists (SPJ). Il adhère de ce fait à la Charte d’éthique mondiale des journalistes de la Fédération internationale des journalistes (FJI).
Imaginez juste revenir 70 ans en arrière et on vous dit que dans le futur vous pourrez depuis chez vous: acheter n’importe quoi, parler avec n’importe qui ou savoir absolument tout ce que vous voulez, juste avec un seul outil. Clairement on dirait de la science fiction, ça à l’air d’être incroyable mais vous vous demandez quand même: Est-ce que ça peut mal tourner ?
L’intelligence artificielle est une force du mal. C’est la véritable raison pour laquelle elle existe : centralisée ou décentralisée, ce n’est ni ici ni là et c’est un faux « choix ». La vente agressive (Schwab/Kurzweil) ou la vente douce (Musk, Thiel et compagnie) mènent exactement au même résultat (comme toujours prévu).
Très bon article Guy, un grand merci pour le partage d’information importante concernant la sécurité compromise sur Twitter/X.