Des chercheurs de l’université de Chicago ont imaginé des techniques inédites pour empoisonner les données de formation des modèles d’IA générative. Un moyen pour les artistes de lutter contre le pillage de leurs œuvres visuelles par OpenAI, Stable Diffusion, Midjourney & co.
