Questions de sécurité sur DeepSeek AI : analyse, risques et recommandations

Dernière mise à jour: 11 mai 2025
  • DeepSeek démocratise l'accès à l'IA avancée, mais présente des risques de confidentialité et de censure en raison de son fonctionnement en Chine.
  • Les experts et les autorités soulignent les vulnérabilités techniques, les problèmes de conformité juridique et la possibilité de manipulation ou d’utilisation abusive.
  • Il est recommandé de ne pas partager de données sensibles, d'exécuter le modèle localement dans la mesure du possible et d'exiger une transparence juridique et éthique maximale.

Doutes sur la sécurité de DeepSeek AI

Recherche profonde, le modèle d’intelligence artificielle (IA) développé en Chine, a suscité un profond débat mondial sur sa sécurité, sa confidentialité et les implications éthiques de son utilisation. Bien que salué pour ses avancées technologiques et pour avoir rendu l'IA open source haute performance accessible à tous, DeepSeek fait l'objet d'une surveillance croissante en raison de préoccupations allant de la gestion des données à la censure politique, en passant par les vulnérabilités détectées dans son infrastructure et le respect des réglementations internationales.

Grâce à sa nature disruptive et à son adoption rapide dans les environnements universitaires et commerciaux, DeepSeek a réussi à se positionner comme une alternative solide aux géants comme OpenAI et son célèbre ChatGPT. Cependant, le fait qu’il s’agisse d’une IA open source, sa politique de gestion des données et l’influence que le gouvernement chinois peut exercer sur la plateforme ont accru la méfiance parmi les utilisateurs, les organismes de réglementation et les experts en cybersécurité du monde entier.

Pourquoi DeepSeek est-elle une IA différente ?

Doutes sur la sécurité de DeepSeek AI

DeepSeek a représenté un saut qualitatif dans le domaine de intelligence artificielle générative pour deux raisons principales. Premièrement, sa nature open source a démocratisé l’accès à des technologies très avancées, permettant aux particuliers comme aux entreprises de télécharger, d’auditer, de modifier et d’exécuter le modèle en fonction de leurs propres besoins. Cela contraste avec le modèle fermé et restrictif des autres grands acteurs de l’industrie, ce qui a été très apprécié par la communauté technologique.

Deuxièmement, votre faible coût de formation et de déploiement a brisé les paradigmes, permettant à davantage d’organisations d’expérimenter et de créer plus facilement des solutions d’IA sans avoir recours à des investissements importants. En termes de performances, DeepSeek rivalise même avec les modèles de référence fermés, se classant à égalité avec les meilleures offres commerciales. Cependant, ces avantages sont éclipsés par un certain nombre de risques : le code open source facilite le développement d’applications légitimes, mais il encourage également les utilisations abusives à des fins criminelles, la manipulation d’informations ou les cyberattaques.

En outre, l’hégémonie technologique de la Chine et le contrôle de l’État sur les entreprises stratégiques ont alimenté les craintes que DeepSeek puisse être utilisé comme un outil d’influence internationale, que ce soit par la collecte massive de données, la censure de certains sujets ou comme véhicule de propagande d’État.

Gestion et stockage des données : la confidentialité en question

Doutes sur la confidentialité de DeepSeek AI

L’un des aspects les plus controversés est la gestion des informations personnelles dans DeepSeek. Comme l'ont souligné divers experts et organismes de réglementation internationaux, dont l'Organisation des consommateurs et des utilisateurs (OCU) et les autorités européennes, il existe de sérieuses inquiétudes concernant la politique de confidentialité de la plateforme et l'emplacement de ses serveurs.

  • Toutes les données collectées, y compris les messages, les fichiers, l'historique des discussions, les enregistrements vocaux, les modèles de clavier et les images, sont stockées et traitées sur des serveurs situés en Chine.
  • La société reconnaît qu'elle peut partager ces informations avec des fournisseurs, des partenaires commerciaux et des autorités, en particulier lorsqu'il existe une obligation légale de le faire en vertu de la loi chinoise.
  • La collecte explicite et automatisée de données va des informations que vous fournissez lors de la création de votre compte (nom, e-mail, numéro de téléphone, date de naissance, mot de passe) aux informations sur votre appareil, votre système d'exploitation, votre langue, vos habitudes d'utilisation, vos méthodes de paiement et les données obtenues via des tiers (par exemple, lorsque vous vous inscrivez via Google ou Apple).

La loi chinoise autorise l’accès de l’État à toutes ces données, sans garanties spécifiques de transparence, de proportionnalité ou de notification aux utilisateurs concernés. Cela contraste avec les exigences du règlement général européen sur la protection des données (RGPD), qui a conduit à des enquêtes et au blocage temporaire de DeepSeek dans des pays comme l'Italie, l'Irlande, la France et la Corée du Sud. Dans de nombreux cas, l’entreprise n’a pas désigné de représentant légal dans l’Union européenne et n’a pas mis en œuvre les garanties nécessaires pour traiter les données des utilisateurs européens.

De plus, le Politique de confidentialité de DeepSeek Elle est opaque : elle ne précise pas si les données sont utilisées pour créer des profils ou prendre des décisions automatisées, elle ne définit pas de périodes de conservation claires, ni n'explique les modalités selon lesquelles les utilisateurs peuvent exercer leurs droits d'accès, de rectification ou de suppression des données.

Lorsque plusieurs experts en intelligence artificielle et en confidentialité ont été consultés, la plupart ont convenu que, bien que la collecte massive de données soit courante dans le secteur et soit également effectuée par des plateformes telles que ChatGPT, Claude, Gemini ou Grok, l'emplacement physique et légal des serveurs en Chine ajoute un Risque spécifique de cyberattaques et d'accès par les autorités chinoises qui est difficile à contrôler depuis l’Occident.

Censure, alignement des valeurs et contrôle gouvernemental

Censure dans DeepSeek AI

Une autre source de préoccupation est l’existence de filtres de censure et alignement idéologique au sein même du modèle DeepSeek. La conception du système intègre plusieurs niveaux de filtres pour empêcher les réponses qui pourraient être sensibles ou contraires aux intérêts du parti au pouvoir en Chine. Des sujets tels que les manifestations de Tiananmen, l’indépendance de Taïwan, les droits de l’homme et les questions géopolitiques controversées sont souvent bloqués ou reçoivent des réponses alignées sur le discours officiel chinois.

Ce mécanisme remplit deux fonctions : d'une part, il limite les risques juridiques du développeur dans son pays d'origine, mais d'autre part, il fait de DeepSeek un potentiel outil de propagande et de manipulation de l'information. Diverses analyses menées par des experts internationaux ont montré qu’il est relativement facile de contourner ces restrictions grâce à des techniques de jailbreaking, démontrant que les contrôles de censure ne sont pas infaillibles et peuvent être exploités à la fois pour contourner les filtres et pour introduire des biais supplémentaires, des manipulations narratives ou de la désinformation.

Vulnérabilités techniques et attaques de masse : DeepSeek est-il sûr à utiliser ?

Vulnérabilités de sécurité dans DeepSeek AI

La sécurité de DeepSeek a été mise à rude épreuve dès ses premières semaines de fonctionnement. Le modèle a été victime de plusieurs cyberattaques à grande échelle (DDoS), ce qui a rapidement obligé les responsables à limiter l’enregistrement de nouveaux utilisateurs et à renforcer leurs mesures de protection internes.

Cependant, l’une des conclusions les plus alarmantes provient d’analystes indépendants et de sociétés de cybersécurité telles que KELA : DeepSeek est vulnérable au jailbreaking, une technique qui permet de contourner les filtres de sécurité du modèle et de forcer des réponses qui seraient normalement interdites.

Au cours de tests contrôlés, DeepSeek a pu générer des instructions détaillées pour le développement de logiciels malveillants, de ransomwares et la fabrication d'explosifs et de substances toxiques. Ces résultats révèlent que les barrières de sécurité actuelles sont insuffisantes pour empêcher les usages criminels ou dangereux, ce qui représente un risque réel tant pour les utilisateurs individuels que pour les entreprises.

De plus, ils ont été identifiés Faiblesses techniques des applications mobiles pour Android et iOS, lié à la transmission de données vers des serveurs non chiffrés, ce qui pourrait exposer des informations sensibles aux cybercriminels. Compte tenu de cette situation, les agences de régulation de pays comme la Corée du Sud ont temporairement bloqué l'application jusqu'à ce que les normes de protection minimales soient garanties et qu'elle soit conforme aux réglementations locales.

Risques spécifiques pour les entreprises et les gouvernements

Risques de DeepSeek AI pour les entreprises et les gouvernements

Le scénario de risque se multiplie lorsque entreprises ou agences gouvernementales envisagez d'utiliser DeepSeek. Au-delà des préoccupations concernant la confidentialité des données personnelles, il existe également le danger supplémentaire de transférer des informations confidentielles, des secrets commerciaux ou des données sensibles vers une infrastructure située en Chine et soumise à une extraterritorialité légale. Dans des pays comme les États-Unis, l’armée et plusieurs agences ont expressément interdit l’installation de DeepSeek sur des appareils d’entreprise ou gouvernementaux, en raison de la possibilité que des données soient transférées aux autorités chinoises.

Des experts tels que Johna Till Johnson, Bradley Shimmin et Mike Mason, consultés par des portails technologiques internationaux, recommandent N'utilisez pas DeepSeek dans des contextes où des informations critiques sont traitées.. Si des raisons techniques nécessitent l'accès au modèle, il est suggéré de le faire via des implémentations locales ou via des fournisseurs d'hébergement de confiance, tels qu'AWS, Microsoft Azure ou des plateformes équivalentes en Europe et aux États-Unis. De cette façon, les transferts de données en dehors de la juridiction souhaitée peuvent être limités.

En outre, la communauté internationale s’inquiète de l’éventuelle intégration de DeepSeek dans la sphère militaire chinoise. Des modèles d’IA comme celui-ci peuvent être utilisés pour analyser des scénarios de guerre, traiter de vastes quantités d’informations tactiques et stratégiques, ou même participer à la prise de décision automatisée. Cependant, Manque de transparence concernant les mesures de sécurité mises en œuvre, ainsi que les dépendances technologiques potentielles et les vulnérabilités aux cyberattaques, qui pourraient compromettre non seulement la confidentialité mais même la stabilité opérationnelle des infrastructures critiques.

Comparaison des risques : DeepSeek vs. autres IA

Il est essentiel de contextualiser les doutes soulevés par DeepSeek dans un contexte plus large, en le comparant à d’autres modèles d’IA leaders du marché. S'il est vrai que Les chatbots les plus avancés collectent et traitent de grands volumes de donnéesCe qui distingue DeepSeek, c'est :

  • Localisation et juridiction légale de vos serveurs:En Chine, avec les obligations qui en découlent de transférer des données à l’État.
  • Manque de transparence dans les processus d’anonymisation, de profilage et de droits ARCO (accès, rectification, annulation et opposition).
  • Vulnérabilité aux attaques de jailbreaking et d'ingénierie socialeLors des tests de référence, DeepSeek s'est avéré plus facilement exploitable dans certains scénarios, bien que des modèles tels que Google Gemini 2.0 Flash et OpenAI o1-preview aient également échoué à plusieurs tests de sécurité automatisés.
  • Censure idéologique explicite et alignement sur les intérêts politiques du pays en développement.

Malgré ces différences, il ne faut pas perdre de vue que D’autres IA de référence, telles que ChatGPT, stockent également de grandes quantités de données et les partagent avec des tiers. (fournisseurs, partenaires commerciaux, autorités judiciaires), bien que dans des cadres réglementaires plus stricts et plus transparents en Europe et en Amérique. Par conséquent, la prudence et le bon sens sont toujours recommandés lors du partage d’informations sensibles, quelle que soit la plateforme d’IA utilisée.

Régulation internationale et réponse institutionnelle

L’émergence de DeepSeek a accéléré le débat sur la nécessité de nouvelles réglementations, d’un consensus international et de cadres d’audit indépendants pour l’intelligence artificielle. Il existe déjà des cas où les organismes de réglementation ont agi avec force :

  • Italie, Irlande et France Ils ont ouvert des enquêtes spécifiques sur DeepSeek et ont bloqué ou limité son utilisation, demandant des informations claires sur le traitement et la localisation des données des citoyens européens.
  • Corée du sud a temporairement suspendu les téléchargements et a exigé que la politique de confidentialité soit adaptée à sa réglementation nationale, après avoir détecté des faiblesses dans la protection des informations personnelles et des échecs dans la vérification de l'âge.
  • En Espagne, l'OCU (Organisation des États américains) a demandé à l'Agence espagnole de protection des données d'enquêter et, le cas échéant, de sanctionner les entreprises responsables du non-respect des garanties requises pour les transferts internationaux de données et du fait de ne pas avoir demandé de manière adéquate le consentement, notamment dans le cas des mineurs.

Compte tenu du vide juridique dans de nombreux pays, les experts exhortent les entreprises, les gouvernements et les utilisateurs à prendre des précautions extrêmes. Il est conseillé d’analyser en permanence les risques, d’établir des stratégies d’atténuation telles que la formation et l’exécution de modèles locaux, et d’exiger toujours une transparence maximale dans la gestion des données et l’application de filtres de contenu.

Recommandations pour une utilisation responsable de DeepSeek

Si, malgré les risques identifiés, vous décidez d’utiliser DeepSeek, il existe certains conseils pour minimiser votre exposition :

  • Évitez de partager des données confidentielles ou des informations personnelles sensibles dans les chats ou les requêtes adressées au modèle, notamment lors de l'utilisation de la version cloud ou du site Web officiel.
  • Envisager la possibilité de exécuter DeepSeek localement sur votre propre ordinateur ou serveur, limitant ainsi l'envoi de données vers la Chine (bien que cela puisse nécessiter des connaissances techniques et ait des limitations de ressources sur les ordinateurs personnels).
  • Pour les entreprises, Il est conseillé d'utiliser des hébergeurs fiables dans votre pays ou région (comme AWS, Azure ou les plateformes certifiées par l'UE), qui déplace le transfert et le stockage des données en dehors de la Chine.
  • exécute tests de sécurité constants et mettez à jour vos protections contre le jailbreaking et les cyberattaques, car les modèles d'IA évoluent et peuvent intégrer des vulnérabilités à chaque mise à jour.
  • Surveiller et réviser régulièrement les politiques de confidentialité et conditions de service, car ils peuvent changer au fil du temps et affecter le niveau de protection de vos informations.

Dans tous les cas, la maxime des experts est Ne vous laissez pas emporter uniquement par la gratuité ou l’apparente accessibilité du modèle. La sécurité et la confidentialité des données doivent toujours être une priorité, en particulier lorsqu’il s’agit de technologies qui évoluent si rapidement et peuvent être soumises à des pressions externes ou à des changements réglementaires soudains.

Perspective éthique et sociale : le double visage de l'IA open source

En approfondissant le débat éthique, l’essor des plateformes open source comme DeepSeek soulève un dilemme difficile : Comment concilier l’innovation et la démocratisation des technologies avec la protection des droits fondamentaux ?

D'une part, Le libre accès stimule la recherche, permet aux petites entreprises de concurrencer les grandes sociétés et augmente la transparence technique en facilitant l'examen du code et les processus de formation. Mais en même temps, il supprime de nombreuses barrières de contrôle qui entravent l’utilisation abusive, la manipulation des informations ou le développement d’outils d’attaque automatisés.

Plusieurs experts ont souligné l’absence de consensus international sur la gouvernance de l’IA et l’absence d’audits indépendants solides. laisser des modèles comme DeepSeek dans une zone grise éthique et juridique. La rapidité avec laquelle de nouveaux modèles sont développés et déployés signifie que, dans de nombreux cas, la réglementation arrive tard et ne peut pas prévenir les risques en temps réel.

Dans la sphère sociale et géopolitique, l’expansion de DeepSeek soulève des questions supplémentaires. Bien qu’elle puisse devenir un outil d’inclusion et de progrès éducatif ou scientifique, son exploitation à des fins de cyberguerre, de manipulation de la réalité ou de militarisation de l’IA renforce la nécessité de mécanismes de surveillance mondiaux et de responsabilité partagée.

Enfin, le développement de l’IA en Chine et son utilisation dans la défense nationale, sans contrôles externes ni validation internationale, soulève des inquiétudes quant au rôle que DeepSeek pourrait jouer dans de futures crises de l’information, des conflits armés ou des campagnes de désinformation de masse.

L’histoire de DeepSeek illustre parfaitement l’équilibre délicat entre le progrès technologique et la protection des valeurs fondamentales. Avec une histoire chargée de controverses réglementaires, de dilemmes éthiques, de problèmes de sécurité et de grandes promesses d’innovation, DeepSeek est devenu un paradigme pour les défis contemporains de l’intelligence artificielle. L’avenir de l’IA open source, et en particulier des plateformes développées dans des pays dotés d’une législation opaque ou restrictive, dépendra en grande partie de la pression de la société, des régulateurs internationaux et des utilisateurs eux-mêmes en quête de plus de confiance, de transparence et de respect des droits numériques.