A Casa Branca diz que vários grandes fornecedores de IA se comprometeram a tomar medidas para combater deepfakes não consensuais e material de abuso sexual infantil.
Adobe, Cohere, Microsoft, Anthropic OpenAI e o provedor de dados Common Crawl disseram que vão "responsavelmente" obter e proteger os conjuntos de dados que criam e usam para treinar IA em imagens de abuso sexual. Essas organizações — excluindo o Common Crawl — também disseram que vão incorporar "loops de feedback" e estratégias em seus processos de desenvolvimento para proteger contra a geração de imagens de abuso sexual por IA. E eles (novamente, excluindo o Common Crawl) disseram que vão se comprometer a remover imagens de nudez de conjuntos de dados de treinamento de IA "quando apropriado e dependendo do propósito do modelo".
Os compromissos são auto-regulados, vale ressaltar. Muitos fornecedores de IA optaram por não participar (por exemplo, Midjourney, Stability AI, etc.). E os compromissos do OpenAI, em particular, levantam questões, pois o CEO Sam Altman disse em maio que a empresa exploraria como gerar "responsavelmente" IA pornográfica.
No entanto, a Casa Branca os elogiou como uma vitória em seu esforço mais amplo para identificar e reduzir o dano de deepfakes de nudez.