CHRONIQUE Les règles encadrant ce qui est permis de faire avec le chatbot, notamment dans la génération d’images, s’assouplissent fortement, créant de nouveaux risques
Jusqu’à présent, la ligne était claire. Il y avait d’un côté Grok, l’intelligence artificielle d’Elon Musk, avec très peu de filtres. Et de l’autre, des systèmes présentés comme plus responsables, comme ceux d’OpenAI, Google ou Microsoft. Alors que Grok répondait sans filtre à de nombreuses questions et permettait de générer des images avec une grande liberté, ses concurrents comportaient de nombreux filtres pour ne pas générer textes et images offensants, affichant des personnalités publiques ou des symboles nazis, par exemple. Bien sûr, il était toujours possible, avec un peu d’astuce, de faire dérailler ces systèmes plus responsables, mais dans l’ensemble, ils étaient plus sûrs.
Aujourd’hui, cette distinction s’efface rapidement, notamment s’agissant de ChatGPT, d’OpenAI. La nouvelle génération de son générateur d’images, qui fait ces jours sensation, permet facilement de créer des représentations de personnalités publiques. Sam Altman, directeur d’OpenAI, s’est montré très clair à ce sujet, dans un message publié sur X: «Les gens vont créer des choses vraiment incroyables et d’autres qui pourraient offenser. Notre objectif est que l’outil ne crée pas de contenu offensant, sauf si vous le souhaitez, auquel cas, dans la limite du raisonnable, il le fait.»
Voir plus