Ce que vous devez savoir sur Grok AI et votre vie privée : cet outil d’IA générative récupère une tonne de données que les gens publient sur ✘
Pour faire suite à ma publication du 13 septembre concernant le réseau ✘ et le chatbot Grok-2, je partage avec vous un article de Kate O’Flaherty publié le 9 septembre dans le magazine Wired. J’écrivais : « Toutes ces images et vidéos générées par l’IA brouillent l’esprit et insufflent un poison nocif pour l’âme. Les gens qui croient s’amuser en utilisant le test bêta de Grok-2 sont en réalité les cobayes d’une énième étude marketing et comportementale. En fait, leurs données personnelles sont utilisées afin de bâtir un empire du mensonge dans lequel,― éventuellement ―, les gens seront incapables de différencier le vrai du faux. » Pour sa part, la journaliste spécialisée dans la cybersécurité et la confidentialité écrit en introduction : « L’outil d’IA générative de xAI, Grok AI, est déséquilibré par rapport à ses concurrents. Il récupère également une tonne de données que les gens publient sur X. Voici comment garder vos publications hors de Grok et pourquoi vous devriez le faire. » ― Je vous souhaite une bonne lecture.
En 2015, Elon Musk et Sam Altman ont cofondé OpenAI sur la base d’une philosophie apparemment éthique : développer une technologie d’IA qui profite à l’humanité, plutôt qu’à des systèmes contrôlés par de grosses sociétés. Dix ans plus tard, au cours desquels Musk et Altman se sont disputés, les choses semblent bien différentes. Au milieu des batailles juridiques avec son ami et ancien partenaire commercial, la dernière entreprise d’Elon Musk, xAI, a lancé son propre concurrent puissant, Grok AI. Décrit comme « un assistant de recherche IA avec une touche d’humour et une pointe de rébellion », Grok est conçu pour avoir moins de garde-fous que ses principaux concurrents. Sans surprise, Grok est sujet aux hallucinations et aux préjugés, l’assistant IA étant accusé de diffuser de fausses informations sur les élections de 2024.
Dans le même temps, ses pratiques en matière de protection des données font l’objet d’un examen minutieux. En juillet, Musk s’est attiré les foudres des régulateurs européens après qu’il est apparu que les utilisateurs de la plateforme X avaient automatiquement accepté que leurs messages soient utilisés pour former Grok. Les capacités de génération d’images du modèle de langage Grok-2 suscitent également des inquiétudes. Peu après le lancement en août, les utilisateurs ont démontré à quel point il était facile de créer des représentations scandaleuses et incendiaires de personnalités politiques, dont Kamala Harris et Donald Trump.
Alors, quels sont les principaux problèmes avec Grok AI et comment pouvez-vous protéger vos données X pour qu’elles ne soient pas utilisées pour l’entraîner ?
Intégration profonde
Elon Musk intègre Grok en profondeur dans X, l’utilisant pour personnaliser les flux d’actualités et la composition des publications. Pour l’instant, il est en version bêta et n’est disponible que pour les abonnés Premium+. Parmi les avantages, l’accès aux données en temps réel de X permet à Grok de discuter des événements actuels au fur et à mesure qu’ils se déroulent, explique Camden Woollven, responsable du groupe IA chez GRC International Group, un cabinet de conseil proposant des services de protection des données et de confidentialité.
Pour se démarquer de ses concurrents, Grok se veut « transparent et anti-woke », explique Nathan Marlor, responsable des données et de l’IA chez Version 1, une entreprise qui aide les entreprises à adopter des technologies telles que l’IA. Pour des raisons de transparence, l’équipe de Grok a rendu l’algorithme sous-jacent open source plus tôt cette année. Cependant, dans sa quête d’une position « anti-woke », Grok a été conçu avec « beaucoup moins de garde-fous » et « moins de considération pour les préjugés » que ses homologues, notamment OpenAI et Anthropic, explique Marlor. « Cette approche en fait sans doute un reflet plus précis des données d’entraînement sous-jacentes – Internet – mais elle a également tendance à perpétuer un contenu biaisé. »
Grok étant un outil très ouvert et relativement peu contrôlé, l’assistant IA a été surpris en train de diffuser de fausses informations sur les élections américaines. Des responsables électoraux du Minnesota, du Nouveau-Mexique, du Michigan, de Washington et de Pennsylvanie ont envoyé une lettre de plainte à Musk, après que Grok a fourni de fausses informations sur les délais de vote dans leurs États. Grok a rapidement réagi à ce problème. Le chatbot IA dira désormais : « pour des informations précises et à jour sur les élections américaines de 2024, veuillez visiter Vote.gov », lorsqu’on lui posera des questions liées aux élections, selon The Verge.
Mais X précise également que c’est à l’utilisateur de juger de la précision de l’IA. « Il s’agit d’une version préliminaire de Grok », indique xAI sur sa page d’aide. Par conséquent, le chatbot peut « fournir en toute confiance des informations factuellement incorrectes, mal résumer ou manquer de contexte », prévient xAI. « Nous vous encourageons à vérifier de manière indépendante toute information que vous recevez », ajoute xAI. « Veuillez ne pas partager de données personnelles ou d’informations sensibles et confidentielles dans vos conversations avec Grok. »