
Sign up to save your podcasts
Or


Bien coder en utilisant l’intelligence artificielle. Les développeurs sont tentés d’utiliser largement les assistants de codage en IA. Cette pratique comporte des règles à respecter.
Le rapport conjoint de l’ANSSI et du BSI analyse les opportunités et les risques liés à l’utilisation des assistants de codage basés sur l’IA.
Les développeurs ont bien compris les avantages de solliciter l’IA pour coder plus vite et mieux. L’ANSSI souligne les avantages en termes de productivité et de simplification de tâches de développement, mais met également en lumière les dangers liés à la fuite d’informations sensibles, à la qualité et à la sécurité du code généré, ainsi qu’aux nouvelles failles de sécurité introduites par ces outils.
Quelles sont les bonnes pratiques à respecter pour une utilisation responsable et sécurisée de ces assistants ?Quelles mesure prendre pour réduire ou éliminer ces risques ?
Les assistants de codage basés sur l’IA, utilisant des modèles de langage (LLM), offrent un potentiel de transformation du développement logiciel. Ils présentent à la fois des opportunités et des risques importants.
Le premier risque est celui d’une utilisation non maitrisée. La direction technique doit définir la politique en matière d’utilisation d’IA pour les développeurs et définir les règles d’emploi.
Opportunités:
Risques:
Les entreprises et les développeurs doivent adopter une approche responsable lors de l’utilisation des assistants de codage IA, en tenant compte des risques potentiels et en mettant en œuvre des mesures d’atténuation appropriées.
Gestion:
Développement:
Les assistants de codage IA, basés sur des modèles de langage (LLM), présentent des avantages potentiels mais aussi des risques pour la sécurité. La plupart des outils LLM sont des services cloud qui vont ensuite utiliser le code uploadé pour alimenter leur modèle. Utiliser sans contrôle un outil d’IA générative de code c’est montrer son code en public.
Recommandations pour la direction technique
Recommandations pour les développeurs:
Les assistants de codage IA, présentent des failles de sécurité importantes qu’il est crucial de comprendre et de maitriser.
1. Manque de Confidentialité des Entrées:
2. Biais d’Automatisation et Manque de Qualité/Sécurité des Sorties:
3. Attaques par code Malveillant:
Les assistants de codage IA présentent de nombreux avantages. Mais aussi se sont des failles de sécurité qui touchent à la confidentialité des données, à la qualité du code généré et à la possibilité d’attaques malveillantes.
Il est essentiel de prendre des mesures de mitigation appropriées pour minimiser ces risques et utiliser ces outils de manière responsable et sécurisée. Former les développeurs, Définir une gouvernance des outil et de leurs usage. Renforcer le contrôle qualité. regarde le code à plusieurs et ne pas faire d’excès de confiance en l’IA.
Source
Rapport conjoint BSI et ANSSI sur l’utilisation des outils de codage en LLM
Les 10 meilleurs outils de codage par IA 2024
By Régis BAUDOUINBien coder en utilisant l’intelligence artificielle. Les développeurs sont tentés d’utiliser largement les assistants de codage en IA. Cette pratique comporte des règles à respecter.
Le rapport conjoint de l’ANSSI et du BSI analyse les opportunités et les risques liés à l’utilisation des assistants de codage basés sur l’IA.
Les développeurs ont bien compris les avantages de solliciter l’IA pour coder plus vite et mieux. L’ANSSI souligne les avantages en termes de productivité et de simplification de tâches de développement, mais met également en lumière les dangers liés à la fuite d’informations sensibles, à la qualité et à la sécurité du code généré, ainsi qu’aux nouvelles failles de sécurité introduites par ces outils.
Quelles sont les bonnes pratiques à respecter pour une utilisation responsable et sécurisée de ces assistants ?Quelles mesure prendre pour réduire ou éliminer ces risques ?
Les assistants de codage basés sur l’IA, utilisant des modèles de langage (LLM), offrent un potentiel de transformation du développement logiciel. Ils présentent à la fois des opportunités et des risques importants.
Le premier risque est celui d’une utilisation non maitrisée. La direction technique doit définir la politique en matière d’utilisation d’IA pour les développeurs et définir les règles d’emploi.
Opportunités:
Risques:
Les entreprises et les développeurs doivent adopter une approche responsable lors de l’utilisation des assistants de codage IA, en tenant compte des risques potentiels et en mettant en œuvre des mesures d’atténuation appropriées.
Gestion:
Développement:
Les assistants de codage IA, basés sur des modèles de langage (LLM), présentent des avantages potentiels mais aussi des risques pour la sécurité. La plupart des outils LLM sont des services cloud qui vont ensuite utiliser le code uploadé pour alimenter leur modèle. Utiliser sans contrôle un outil d’IA générative de code c’est montrer son code en public.
Recommandations pour la direction technique
Recommandations pour les développeurs:
Les assistants de codage IA, présentent des failles de sécurité importantes qu’il est crucial de comprendre et de maitriser.
1. Manque de Confidentialité des Entrées:
2. Biais d’Automatisation et Manque de Qualité/Sécurité des Sorties:
3. Attaques par code Malveillant:
Les assistants de codage IA présentent de nombreux avantages. Mais aussi se sont des failles de sécurité qui touchent à la confidentialité des données, à la qualité du code généré et à la possibilité d’attaques malveillantes.
Il est essentiel de prendre des mesures de mitigation appropriées pour minimiser ces risques et utiliser ces outils de manière responsable et sécurisée. Former les développeurs, Définir une gouvernance des outil et de leurs usage. Renforcer le contrôle qualité. regarde le code à plusieurs et ne pas faire d’excès de confiance en l’IA.
Source
Rapport conjoint BSI et ANSSI sur l’utilisation des outils de codage en LLM
Les 10 meilleurs outils de codage par IA 2024