Protection des créations artistiques : cet outil empoisonne les données pour faire dérailler les modèles de GenAI

Protection des créations artistiques : cet outil empoisonne les données pour faire dérailler les modèles de GenAI

Des chercheurs de l’université de Chicago ont imaginé des techniques inédites pour empoisonner les données de formation des modèles d’IA générative. Un moyen pour les artistes de lutter contre le pillage de leurs œuvres visuelles par OpenAI, Stable Diffusion, Midjourney & co.

MORE

Leave a reply