DeepSeek a mis à jour son modèle d'IA R1, suscitant des soupçons quant à l'utilisation de données de Google Gemini pour son entraînement. Des chercheurs notent des similitudes dans les résultats, tandis qu'OpenAI a signalé des pratiques de distillation. Les entreprises renforcent leurs mesures de sécurité pour contrer ces abus.
DeepSeek a lancé une mise à jour de son modèle d'IA R1, performant sur des benchmarks mathématiques et de codage.Des chercheurs soupçonnent que le modèle a été entraîné avec des données provenant de Google Gemini.Sam Paech a publié des preuves suggérant que R1-0528 utilise des sorties de Gemini.Des accusations antérieures ont été portées contre DeepSeek pour avoir utilisé des données d'autres modèles d'IA.OpenAI a signalé des preuves de distillation, une technique d'extraction de données d'autres modèles.La contamination des données d'entraînement rend difficile la filtration des sorties d'IA.Des experts estiment que DeepSeek pourrait avoir utilisé des données de Gemini pour son entraînement.OpenAI et Google renforcent leurs mesures de sécurité pour prévenir la distillation.OpenAI exige une vérification d'identité pour accéder à certains modèles avancés.Google et Anthropic commencent à résumer les traces générées par leurs modèles pour protéger leurs avantages concurrentiels.