El papel de la IA en el desarrollo de software está llegando a un punto de inflexión, que impulsará a las organizaciones y a sus líderes de DevSecOps a adoptar una postura más proactiva al momento de promover un uso eficaz y responsable de la IA.
Al mismo tiempo, los desarrolladores y la comunidad general de DevSecOps deben prepararse para abordar cuatro tendencias globales de la IA: un mayor uso de la IA en las pruebas de código, las amenazas continuas a la propiedad y la privacidad de la propiedad intelectual (IP), un aumento de los sesgos en la IA y, a pesar de todos estos desafíos, una mayor dependencia de las tecnologías de IA. Las organizaciones y los equipos de DevSecOps que logren alinearse con estas tendencias serán exitosos; ignorarlas podría sofocar la innovación o, peor aún, comprometer la estrategia empresarial.
Del lujo al estándar: Las organizaciones adoptarán la IA en todos los ámbitos
Integrar la IA se convertirá en algo estándar, y ya no en un lujo, en todos los sectores de productos y servicios, por lo que DevSecOps ya no solo se utilizará para el desarrollo de software, sino también para desarrollar las funciones de IA asociada. Utilizar la IA para impulsar la innovación y ofrecer un mayor valor al cliente será fundamental para mantener la competitividad en un mercado impulsado por la IA.
Según mis conversaciones con clientes de GitLab y la supervisión de las tendencias de la industria, que indica que las organizaciones están superando los límites de la eficiencia mediante la adopción de la IA, se estima que más de dos tercios de las empresas incorporarán funcionalidades de IA en sus ofertas para finales de 2024. Las empresas están pasando de experimentar sus operaciones con la IA a centrarlas en la IA.
Para prepararse, las organizaciones deberán invertir en la revisión de la gobernanza del desarrollo de software y hacer énfasis en aprender de forma continua sobre las tecnologías de IA, así como adoptarlas. Para esto, será necesaria un cambio cultural y estratégica. Exige repensar los procesos comerciales, el desarrollo de productos y las estrategias de interacción con los clientes. Asimismo, requiere capacitación, algo que los equipos de DevSecOps afirman que desean y necesitan. En nuestro último Informe global de DevSecOps, el 81 % de los encuestados afirmó que le gustaría recibir más capacitación sobre el uso eficaz de la IA.
A medida que la IA se vuelve más sofisticada e integral para las operaciones comerciales, las empresas deberán explorar las implicaciones éticas y los impactos sociales de sus soluciones impulsadas por IA, garantizando que estas contribuyan de forma positiva a sus clientes y comunidades.
La IA dominará los flujos de trabajo de pruebas de código
La evolución de la IA en DevSecOps ya está transformando las pruebas de código, y se espera que esta tendencia se acelere aún más. Las investigaciones de GitLab revelaron que solo el 41 % de los equipos de DevSecOps utiliza actualmente la IA para generar pruebas automatizadas como parte del desarrollo de software, pero se espera que dicha cifra alcance el 80 % para finales de 2024 y se acerque al 100 % en los próximos dos años.
A medida que las organizaciones integran herramientas de IA en sus flujos de trabajo, se enfrentan a los desafíos de alinear sus procesos actuales con los beneficios de productividad y escalabilidad que puede proporcionar la IA. Este cambio promete un aumento radical en la productividad y la precisión, pero también exige ajustes significativos en las funciones y prácticas de prueba tradicionales. La adaptación a los flujos de trabajo impulsados por IA requiere la capacitación de los equipos de DevSecOps en la supervisión de la IA y el ajuste de los sistemas de IA para facilitar su integración en las pruebas de código, con el fin de mejorar la calidad y confiabilidad general de los productos de software.
Además, esta tendencia redefinirá aún más el papel de los profesionales de garantía de calidad, quienes deberán desarrollar sus habilidades para supervisar y optimizar los sistemas de prueba basados en IA. La supervisión humana será aún más importante ya que los sistemas de IA requerirán una supervisión y orientación continua para ser altamente efectivos.
Se intensificará la amenaza de la IA a la propiedad intelectual y la privacidad
La creciente adopción de la creación de código impulsada por IA aumenta el riesgo de vulnerabilidades introducidas por la IA y la posibilidad de filtraciones generalizadas de propiedad intelectual y violaciones a la privacidad de los datos que afecten la seguridad del software, la confidencialidad corporativa y la protección de los datos de los clientes.
Para mitigar esos riesgos, las empresas deben priorizar la implementación de una protección robusta de la propiedad intelectual y la privacidad en sus estrategias de adopción de IA y garantizar que la IA se implemente con total transparencia sobre cómo se utiliza. La implementación de políticas rigurosas de gobernanza de datos y el uso de sistemas de detección avanzados serán cruciales para identificar y abordar los riesgos relacionados con la IA. Para proteger la propiedad intelectual y la privacidad de los datos, es esencial fomentar una mayor conciencia de los empleados sobre estos temas mediante capacitaciones y promoviendo una cultura proactiva de gestión de riesgos.
Los desafíos de seguridad de la IA también subrayan la necesidad constante de implementar prácticas de DevSecOps durante todo el ciclo de vida del desarrollo de software, donde la seguridad y la privacidad no son consideraciones secundarias, sino partes integrales del proceso de desarrollo desde el principio. En pocas palabras, las empresas deben priorizar la seguridad al adoptar la IA (de manera similar al concepto de la metodología de prueba shift left dentro de DevSecOps) para garantizar que las innovaciones basadas en IA no se logren a expensas de la seguridad y la privacidad.
Un aumento de los sesgos vinculados a la IA es inevitable en sus comienzos
Si bien el 2023 marcó un punto de inflexión en la historia de la IA, su ascenso también ha puesto de manifiesto los sesgos vinculados a los algoritmos. Las herramientas de IA que se basan en datos de Internet para su entrenamiento heredan toda la gama de sesgos expresados en los contenidos en línea. Este desarrollo presenta un doble desafío: una exacerbación de los sesgos existentes y la creación de nuevos sesgos que impactan en la equidad e imparcialidad de la IA en DevSecOps.
Para contrarrestar los sesgos generalizados, los desarrolladores deben centrarse en diversificar sus conjuntos de datos de entrenamiento, incorporar métricas de equidad e implementar herramientas de detección de sesgos en los modelos de IA, así como explorar modelos de IA diseñados para casos de uso específicos. Una vía prometedora que se debe explorar es el uso de comentarios de IA para evaluar modelos de IA basados en un conjunto claro de principios, o una «constitución», que establezca directrices firmes para las acciones de la IA. Establecer directrices éticas e intervenciones de capacitación es crucial para garantizar la imparcialidad de los resultados de la IA.
Las organizaciones deben establecer marcos sólidos de gobernanza de datos para garantizar la calidad y confiabilidad de los datos en sus sistemas de IA. Los sistemas de IA reflejan la calidad de los datos que procesan, y los datos incorrectos pueden generar resultados inexactos y decisiones erróneas.
Los desarrolladores y la comunidad tecnológica en general deben exigir y facilitar el desarrollo de una IA imparcial mediante una IA constitucional o un aprendizaje reforzado con retroalimentación humana orientado a reducir el sesgo. Esto requiere un esfuerzo conjunto entre proveedores y usuarios de IA para garantizar que se produzca un desarrollo responsable de la IA que priorice la equidad y la transparencia.
Prepararse para la revolución de la IA en DevSecOps
A medida que las organizaciones aceleran su transición hacia modelos de negocios centrados en la IA, no se trata únicamente de mantener la competitividad, sino también de garantizar su supervivencia. Los líderes de negocios y los equipos de DevSecOps deberán enfrentar los desafíos anticipados amplificados por el uso de IA, ya sean amenazas a la privacidad, confianza en lo que produce la IA o cuestiones de resistencia cultural.
En conjunto, estos avances representan una nueva era en el desarrollo y la seguridad de software. Abordar estos cambios requiere un enfoque integral que incluya el desarrollo y uso ético de la IA, medidas de seguridad y gobernanza rigurosas, y el compromiso de proteger la privacidad. Las acciones que las organizaciones y los equipos de DevSecOps tomen ahora marcarán el rumbo del futuro a largo plazo de la IA en DevSecOps, garantizando su implementación ética, segura y beneficiosa.
Este artículo se publicó originalmente el 7 de enero de 2024 en TechCrunch.