Le rôle de l'IA dans le développement logiciel connaît un moment charnière, lequel obligera les entreprises et leurs responsables DevSecOps à faire preuve d'une plus grande proactivité dans la défense d'une utilisation efficace et responsable de l'IA.
Parallèlement, les développeurs et l'ensemble de la communauté DevSecOps doivent se préparer à faire face à quatre tendances mondiales en matière d'IA : l'utilisation accrue de l'IA dans les tests de code, les menaces permanentes pesant sur la protection de la propriété intellectuelle (PI) et la confidentialité, l'augmentation des biais liés à l'IA, ainsi qu'une dépendance accrue à l'égard des technologies de l'IA malgré tout. Parvenir à s'aligner sur ces tendances placera les entreprises et les équipes DevSecOps sur la voie de la réussite. Les ignorer pourrait scléroser l'innovation ou, pire encore, compromettre la stratégie de votre entreprise.
Du luxe à la norme : l'IA appelée à se généraliser au sein des entreprises
L'intégration de l'IA deviendra la norme, et non plus un luxe, dans tous les secteurs de produits et de services. Elle s'appuiera sur l'approche DevSecOps pour créer des fonctionnalités d'IA en parallèle des logiciels qui les exploiteront. L'exploitation de l'IA pour stimuler l'innovation et offrir une meilleure valeur ajoutée aux clients sera essentielle pour rester compétitif sur le marché piloté par l'IA.
D'après mes échanges avec les clients de GitLab et le suivi des tendances du secteur, les entreprises repoussent les limites de la productivité grâce à l'adoption de l'IA, et plus de deux tiers d'entre elles intégreront des capacités d'IA dans leurs offres d'ici à la fin de l'année 2024. Ces dernières passent en effet de l'expérimentation de l'IA à une approche centrée sur celle-ci.
Pour se préparer, les entreprises doivent investir dans la révision de la gouvernance du développement logiciel et mettre l'accent sur l'apprentissage continu et l'adaptation aux technologies de l'IA. Une réorientation culturelle et stratégique sera alors de mise. Il s'agira en effet de repenser les processus opérationnels, le développement de produits et les stratégies d'engagement client, et ce, parallèlement à la mise en place d'une formation que les équipes DevSecOps disent vouloir et dont elles ont besoin. Selon le dernier Rapport Global DevSecOps, 81 % des personnes interrogées ont déclaré vouloir bénéficier d'une formation approfondie sur l'utilisation efficace de l'IA.
L'IA devenant de plus en plus sophistiquée et faisant partie intégrante des opérations commerciales, les entreprises devront gérer les implications éthiques et les impacts sociétaux de leurs solutions pilotées par l'IA, en veillant à ce qu'elles contribuent de manière positive à leurs clients et à leurs communautés.
L'IA au service des workflows de tests de code
Alors que l'évolution de l'IA dans l'approche DevSecOps transforme déjà les tests de code, la tendance devrait davantage s'accélérer. D'après les recherches menées par GitLab, seulement 41 % des équipes DevSecOps utilisent actuellement l'IA pour la génération de tests automatisés dans le cadre du développement logiciel. Ce chiffre devrait cependant atteindre 80 % d'ici la fin de l'année 2024 et approcher les 100 % d'ici deux ans.
Alors que les entreprises intègrent des outils d'IA au sein de leurs workflows, elles sont confrontées au défi d'aligner leurs processus actuels sur les gains de productivité et d'évolutivité procurés par l'IA. Gage d'une augmentation radicale de la productivité et de la précision, ce changement exige également des ajustements significatifs des rôles et des pratiques de test traditionnels. En plus de devoir former les équipes DevSecOps à la supervision de l'IA, l'adaptation aux workflows alimentés par l'IA nécessite un ajustement des systèmes d'IA facilitant leur intégration dans les tests de code afin d'améliorer la qualité et la fiabilité globales des produits logiciels.
Cette tendance redéfinira en outre le rôle des professionnels de l'assurance qualité, qui devront faire évoluer leurs compétences pour superviser et améliorer les systèmes de test fondés sur l'IA. La supervision humaine sera d'autant plus importante que les systèmes d'IA nécessiteront une surveillance et une assistance en continu pour être pleinement efficaces.
IA et sécurité logicielle : intensification de la menace pesant sur la propriété intellectuelle et la confidentialité
L'adoption croissante de la création de code alimentée par l'IA augmente le risque de vulnérabilités introduites par l'IA et la possibilité d'une fuite généralisée en matière de propriété intellectuelle et d'atteintes à la confidentialité des données affectant la sécurité logicielle, la confidentialité de l'entreprise et la protection des données des clients.
Pour atténuer ces risques, les entreprises doivent prioriser la mise en place de solides mesures de protection de la propriété intellectuelle et de la confidentialité au sein de leurs stratégies d'adoption de l'IA. Elles doivent également veiller à ce que l'IA soit mise en œuvre avec une transparence totale sur la manière dont elle est utilisée. La mise en œuvre de politiques rigoureuses de gouvernance des données et l'utilisation de systèmes de détection avancés seront essentielles pour identifier et faire face aux risques liés à l'IA. Pour protéger la propriété intellectuelle et la confidentialité des données, il est essentiel de sensibiliser davantage les employés à ces questions en les formant et en encourageant une culture proactive de gestion des risques.
Les défis de l'IA en matière de sécurité soulignent également la nécessité permanente de mettre en œuvre des pratiques DevSecOps tout au long du cycle de vie du développement logiciel, dans lequel la sécurité et la protection de la confidentialité ne sont pas des questions secondaires, mais font partie intégrante du processus de développement dès le départ. À l'instar du contrôle de la sécurité en amont de l'approche DevSecOps, il est essentiel que les entreprises placent la sécurité au premier plan lorsqu'elles adoptent l'IA afin que les innovations qui en découlent ne se fassent pas au détriment de la sécurité et de la protection de la confidentialité.
Une augmentation des biais liés à l'IA inévitable dans un premier temps
Si l'année 2023 a marqué un tournant dans l'histoire de l'IA, son essor a également mis en lumière les biais liés aux algorithmes. Les outils d'IA qui s'appuient sur les données Internet pour l'apprentissage héritent de toute la gamme de biais exprimés dans les contenus en ligne. Ce phénomène présente un double défi : une exacerbation des biais existants et la création de nouveaux biais ayant un impact sur l'équité et l'impartialité de l'IA dans les pratiques DevSecOps.
Pour contrer les biais omniprésents, les développeurs doivent se concentrer sur la diversification de leurs jeux de données d'entraînement, l'intégration d'indicateurs d'équité et le déploiement d'outils de détection des biais dans les modèles d'IA, ainsi que sur l'exploration de modèles d'IA conçus pour des cas d'utilisation spécifiques. Une voie prometteuse à explorer consiste à utiliser les commentaires de l'IA pour évaluer les modèles d'IA en fonction d'un ensemble de principes clairs, ou d'une « constitution », établissant des directives fermes concernant les actions de l'IA. La définition de directives éthiques et d'interventions de formation est cruciale pour garantir l'impartialité des résultats de l'IA.
Les entreprises doivent mettre en place de solides frameworks de gouvernance des données afin de garantir la qualité et la fiabilité des données de leurs systèmes d'IA. Ces derniers reflètent en effet la qualité des données qu'ils traitent, et de mauvaises données peuvent conduire à des résultats inexacts et à de mauvaises décisions.
Les développeurs et la communauté technologique au sens large devraient exiger et faciliter le développement d'une IA impartiale par le biais de l'IA constitutionnelle ou de l'apprentissage par renforcement avec un retour d'information humain visant à réduire les biais. Un effort concerté entre les fournisseurs et les utilisateurs d'IA est donc nécessaire pour garantir un développement responsable de l'IA donnant la priorité à l'équité et à la transparence.
IA et approche DevSecOps : une révolution en marche
Alors que les entreprises accélèrent leur transition vers des modèles économiques centrés sur l'IA, la question n'est pas seulement de rester compétitif, mais aussi de survivre. Qu'il s'agisse de menaces pour la confidentialité, de la confiance dans ce que produit l'IA ou de questions de résistance culturelle, les chefs d'entreprise et les équipes DevSecOps devront faire face aux défis anticipés amplifiés par l'utilisation de l'IA.
Ensemble, ces développements représentent une nouvelle ère dans le développement et la sécurité des logiciels. Faire face à ces changements nécessite une approche globale comprenant le développement et l'utilisation éthiques de l'IA, des mesures de sécurité et de gouvernance rigoureuses, ainsi qu'un engagement à protéger la confidentialité. Les mesures que les entreprises et les équipes DevSecOps prennent aujourd'hui traceront la voie pour l'avenir à long terme de l'IA dans l'approche DevSecOps, en garantissant son déploiement éthique, sécurisé et bénéfique.
Cet article a été initialement publié le 7 janvier 2024 sur TechCrunch.