
Ces images ont fait scandale. Ces dernières semaines, les utilisateurs de X ont vu des images générées par intelligence artificielle (Grok) représentant des femmes et même des enfants dénudés. Certaines étaient même des victimes du drame de Crans-Montana, dont des photos avaient été partagées par leurs proches pour les rechercher ou annoncer leur décès. Une utilisation sans limite de l’intelligence artificielle à laquelle Elon Musk n’a, dans un premier temps, pas répondu. Mais il a finalement répondu, vendredi 9 janvier, sur X : «La génération et l’édition d’images sont actuellement réservées aux abonnés payants. Vous pouvez vous abonner pour débloquer ces fonctionnalités»
En fin d’après-midi, vendredi 9 janvier, cette fonctionnalité est toujours accessible sans abonnement. Il n’est en revanche plus possible de générer des images à caractère sexuel, l’IA justifiant cela par des «garde-fous renforcés récemment pour éviter la génération d’images sexualisées ou révélatrices de personnes réelles». L’outil s’excuse tout de même «pour la frustration» affirmant que «ce n’est pas personnel».
Une décision «insultante pour les victimes»
Bien que cette réaction d’Elon Musk ait été attendue, elle est loin d’être appréciée. Un porte-parole du Premier ministre britannique a assuré que la désactivation de cette fonctionnalité pour les non-abonnés était «insultante pour les victimes», transformant «simplement une fonctionnalité qui permet la création d’images illégales en un service premium». Cela constitue «une insulte aux victimes de misogynie et de violences sexuelles». Du côté du ministre français de l’Économie, des Finances et de la Souveraineté industrielle, énergétique et numérique, Roland Lescure, le ton est différent : «L'action de la France et de l'Europe paye: X restreint l'utilisation de Grok. C'est un premier pas, mais la lutte contre les dérives de l'IA doit se poursuivre», a-t-il écrit sur Bluesky, concurrent de X.


















