Skip to content

Lucasm3566/project

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

8 Commits
 
 
 
 

Repository files navigation

Risques d'utiliser une IA pour coder

1. Vulnérabilités de sécurité

Taux élevé de failles de sécurité

Dans 45% des cas testés, les modèles de langage (LLM) ont introduit des vulnérabilités classées dans le Top 10 de l'OWASP, selon une étude de Veracode. Java présente le plus grand risque avec un taux d'échec de sécurité supérieur à 70%, tandis que Python, C# et JavaScript affichent des taux d'échec entre 38% et 45%.

Source: EC News - Le code généré par l'IA présente des risques pour la sécurité

Types de vulnérabilités fréquentes

Les LLM échouent à sécuriser le code contre les scripts intersites (CWE-80) dans 86% des cas et contre l'injection de logs (CWE-117) dans 88% des cas. Les injections SQL et attaques similaires deviennent plus faciles avec les vulnérabilités du code généré par l'IA.

Sources:

Faux sentiment de sécurité

Une étude de Stanford révèle que dans 4 tâches sur 5, les participants assistés par l'IA ont écrit du code moins sécurisé que ceux sans IA, représentant une augmentation de 80%. Ce phénomène s'explique par un excès de confiance dans le système, amenant les développeurs à négliger la vérification du code.

Source: Louis-François Bouchard - Les Risques de Coder avec l'IA Générative

2. Risques liés à la chaîne d'approvisionnement

Composants non vérifiés

L'utilisation de bibliothèques, outils et modèles pré-entraînés non vérifiés peut introduire des vulnérabilités ou des portes dérobées (backdoors). Une vigilance particulière doit être portée aux composants n'ayant pas fait l'objet d'une évaluation de sécurité approfondie.

Sources:

Vulnérabilités des plateformes

La vulnérabilité CurXecute (CVE-2025-54135) a permis aux pirates d'ordonner à Cursor d'exécuter des commandes arbitraires sur la machine du développeur. Les plateformes de génération de code peuvent elles-mêmes présenter des failles exploitables.

Source: Kaspersky

3. Fuite de données sensibles

Exposition de données confidentielles

La fuite de données sensibles de l'entité doit être une menace à prendre en compte, quel que soit le cas d'usage du système d'IA générative. Les développeurs peuvent involontairement partager du code propriétaire ou des informations confidentielles avec les services d'IA.

Source: ANSSI

Risques des services mutualisés

L'ANSSI et le BSI soulignent les risques liés aux services mutualisés accessibles depuis Internet, où les données envoyées aux assistants de programmation peuvent être exposées.

Source: ANSSI - Assistants de programmation basés sur l'IA

4. Propriété intellectuelle et droits d'auteur

Absence de protection juridique

Une œuvre générée sans intervention humaine significative ne peut pas bénéficier de la protection par le droit d'auteur. En France, seule une personne physique peut être considérée comme auteur.

Source: Alexia.fr - Intelligence artificielle et droit d'auteur

Risques de contrefaçon

L'exploitation des données générées par l'IA est soumise aux droits d'auteur des auteurs des données d'entraînement. Les entreprises utilisant du code généré par IA peuvent involontairement violer des droits de propriété intellectuelle.

Source: Village Justice - IA générative et propriété intellectuelle

Impact sur les acquisitions

Dans le cadre d'acquisitions, la présence de code généré par l'IA est scrutée avec des impacts potentiels sur la sécurité de la propriété intellectuelle et la viabilité commerciale.

Source: Louis-François Bouchard

5. Dépendance et perte de compétences

Atrophie des compétences

Le développement d'une dépendance excessive à l'IA entraîne une diminution de la capacité d'un développeur à coder de manière indépendante et à innover de manière créative.

Source: Louis-François Bouchard

Problèmes de maintenance

Sans compréhension approfondie du code généré, les développeurs peuvent rencontrer des difficultés lors du débogage ou de la maintenance du code à long terme.

6. Recommandations de l'ANSSI

L'ANSSI et le BSI recommandent d'aborder ces outils avec prudence malgré leurs avantages certains, car ils induisent de nouveaux risques de sécurité à différents stades du développement.

Source: ANSSI

7. Mesures de prévention

Le niveau de risque peut être réduit par une combinaison de mesures :

  • Révision automatique du code avec des outils SAST
  • Intégration d'exigences de sécurité dans les invites système
  • Revues de code par des spécialistes
  • Formation des développeurs

Source: Kaspersky


Synthèse des sources principales

  1. EC News - Le code généré par l'IA présente des risques pour la sécurité
  2. Kaspersky - Risques liés à la sécurité du vibe coding
  3. Louis-François Bouchard - Les Risques de Coder avec l'IA Générative
  4. CNIL - Garantir la sécurité du développement d'un système d'IA
  5. ANSSI - Recommandations de sécurité pour un système d'IA générative
  6. ANSSI - Assistants de programmation basés sur l'IA
  7. Alexia.fr - Intelligence artificielle et droit d'auteur
  8. Village Justice - IA générative et propriété intellectuelle

About

No description, website, or topics provided.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published