OpenAI : ces pays qui utilisent ChatGPT pour manipuler l’opinion publique
« La Chine, la Russie, l’Iran et Israël utilisent ChatGPT pour manipuler l’opinion publique »
Technologie de suivi et sécurité renforcée
OpenAI a déclaré avoir utilisé sa propre technologie d’IA pour identifier et suivre les cas de manipulation de l’opinion publique. « Nous avons suivi ces cas avec notre propre technologie d’IA et avons pu mener à bien toutes ces enquêtes en quelques jours », explique OpenAI.
En outre, OpenAI a intégré des outils de sécurité robustes dans ses produits, y compris ChatGPT. Ces outils sont conçus pour détecter et prévenir les utilisations malveillantes de l’IA.
Résultats de la surveillance
« Dans de nombreux cas, les outils d’OpenAI n’ont produit aucun résultat quand ces acteurs ont essayé de les utiliser à des fins malveillantes », a déclaré l’entreprise. Cela indique l’efficacité des mesures de sécurité mises en place pour empêcher les abus de la technologie d’IA.
OpenAI : La manipulation de l’opinion publique via ChatGPT par des États
Des pays comme la Chine, la Russie, l’Iran et Israël auraient utilisé ChatGPT et la technologie d’IA générative pour créer de faux articles et commentaires, dans le but d’influencer secrètement l’opinion publique. « Au cours des trois derniers mois, nous avons découvert cinq cas d’utilisation de l’IA pour manipuler l’opinion publique », a déclaré OpenAI, ajoutant qu’ils ont fermé toutes ces opérations.
Utilisation de ChatGPT pour générer de faux contenus
Le New York Times rapporte que ChatGPT a été utilisé pour générer de faux commentaires et articles, ainsi que pour créer de faux comptes et biographies sur les réseaux sociaux. Ces actions visaient à donner l’illusion que le contenu générait un grand intérêt, orchestrées par des acteurs étatiques et des entreprises privées en Russie, en Chine, en Iran et en Israël. OpenAI a confirmé deux cas en Russie et un cas dans chacun des autres pays mentionnés.
Objectifs des opérations de manipulation
Ces opérations ont utilisé la technologie d’OpenAI pour générer des messages sur les réseaux sociaux, traduire et éditer des articles, rédiger des titres et même déboguer des programmes informatiques. Elles étaient liées à des événements comme l’invasion russe de l’Ukraine, le conflit à Gaza, les élections en Inde, et d’autres actualités politiques en Europe, aux États-Unis et en Chine. Par exemple, un opérateur israélien a utilisé l’IA pour générer des commentaires et des réponses à un article sur la guerre à Gaza, créant ainsi une fausse impression d’intérêt et d’engagement.
Tendances de l’utilisation de l’IA générative dans les opérations d’influence
OpenAI a identifié quatre grandes tendances dans l’utilisation récente de l’IA générative pour les opérations d’influence :
- Génération de contenu : Les campagnes d’influence utilisent des services d’IA générative pour produire du texte et parfois des images, de manière plus volumineuse et avec moins d’erreurs que les opérateurs humains seuls.
- Mélange de contenu d’IA et de contenu classique : Les opérations combinent du contenu généré par l’IA avec des formats traditionnels comme des textes rédigés manuellement ou des mèmes trouvés en ligne.
- Simulation de l’engagement : Certains réseaux utilisent l’IA pour créer une apparence d’engagement sur les réseaux sociaux, générant des réponses à leurs propres messages.
- Gains de productivité : Des opérateurs utilisent ChatGPT pour améliorer leur productivité, par exemple en résumant des messages sur les réseaux sociaux ou en déboguant du code.
Conclusion
Les révélations d’OpenAI soulignent la manière dont les technologies d’IA peuvent être détournées pour manipuler l’opinion publique. Ces cas démontrent la nécessité d’une vigilance accrue et de régulations plus strictes pour prévenir l’utilisation abusive de l’IA dans des contextes sensibles comme la politique et l’information publique.