Microsoft enquête sur l'utilisation éventuelle par DeepSeek des APIs d'OpenAI

Quelques heures seulement après que David Sacks a affirmé que DeepSeek utilisait les modèles d'OpenAI pour former ses propres modèles, Bloomberg Law rapporte que Microsoft enquête sur l'utilisation par DeepSeek de l'API d'OpenAI.

Selon des chercheurs en sécurité travaillant pour Microsoft, la société chinoise derrière le modèle de raisonnement R1 aurait pu exfiltrer une grande quantité de données en utilisant l'API d'OpenAI à l'automne 2024. Microsoft, qui se trouve également être le plus grand actionnaire d'OpenAI, a notifié OpenAI de cette activité suspecte.

Alors que n'importe qui peut s'inscrire et accéder à l'API d'OpenAI, les conditions d'utilisation de la société stipulent que vous ne pouvez pas utiliser la sortie pour former un nouveau modèle d'IA.

« Vous êtes interdit de [...] utiliser la sortie pour développer des modèles en concurrence avec OpenAI », écrit la société dans ses conditions d'utilisation. De plus, la société indique que vous ne pouvez pas « extraire automatiquement ou programmématiquement des données ou la sortie ».

Le problème principal semble provenir de la distillation, une méthode utilisée par les développeurs de modèles d'IA pour extraire des connaissances d'un autre modèle en utilisant une sorte de comportement maître-élève. Il sera intéressant de voir si DeepSeek a trouvé des moyens innovants de contourner les limites de taux d'OpenAI et d'interroger son API à grande échelle. Si tel est le cas, il y aura certainement des ramifications légales.