GOBIERNO DE CALIDAD/ Seguridad en la IA

Por Jorge Manrique, Rector del Colegio Jurista y director general de Gobierno de Calidad, consultoría de políticas públicas.

¿Cómo garantizamos que el uso de la IA refleje los estándares, políticas y  valores de la organización? Con barreras de seguridad.

Ellas garantizan que las herramientas de IA de una empresa, especialmente los grandes modelos de lenguaje (LLM), sean consistentes con la organización.

Es importante destacar esta idea:  si bien la IA genérica puede mejorar eficiencia, innovación y establecer una ventaja competitiva en la empresa, también puede presentar desafíos y riesgos.

A medida que la adopción de la IA genética por parte de las empresas aumenta rápidamente, las barreras de protección son cruciales para el uso responsable de la IA. Las barreras de protección pueden identificar y eliminar el contenido inexacto generado por los LLM, así como supervisar y filtrar las indicaciones de riesgo. Es decir, vulnerabilidades de seguridad, alucinaciones, contenido tóxico o inapropiado e incluso información errónea.

Pero al igual que las barandillas en la carretera no eliminan el riesgo de lesiones o muertes, las barandillas de IA no garantizan que los sistemas de IA sean completamente seguros, justos, conformes y éticos.

Para obtener los mejores resultados, las empresas pueden implementar barreras de protección de IA junto con otros controles de procedimiento, por ejemplo, marcos de confianza de IA, software de supervisión y cumplimiento, prácticas de prueba y evaluación, así como una pila de tecnología de operaciones de IA adecuada, que escala la gobernanza de la IA en toda la organización.

Para crear el entorno adecuado para la innovación y la transformación de la IA genérica, las organizaciones deben asegurarse de que la tecnología pueda funcionar de forma segura y responsable, y que las barreras de protección de la IA desempeñen un papel fundamental.

En el área de privacidad y seguridad tienen un rol esencial Los sistemas de IA son susceptibles a los ataques de actores maliciosos que explotan las vulnerabilidades para manipular los resultados generados por la IA. Las barreras de seguridad pueden apuntalar los sistemas de IA contra este tipo de ataques, lo que ayuda a proteger a una organización y a sus clientes.

El cumplimiento normativo es un área potencial para las barreras. Con el creciente escrutinio gubernamental de la IA, las organizaciones deben asegurarse de que sus sistemas de IA cumplan con las leyes y normas existentes y emergentes. Al ayudar a una empresa a mantener el cumplimiento de la IA genérica, las barreras de seguridad pueden mitigar el riesgo de sanciones y responsabilidades legales por el uso de estas herramientas.

Por otra parte, mantener la confianza con los clientes y el público en general es primordial para las organizaciones. Las barreras de protección permiten la supervisión y revisión continuas de los resultados generados por IA, lo que puede reducir el riesgo de que se publiquen contenidos erróneos fuera de la empresa.

 

Tagged: