INTELIGENCIA ARTIFICIAL/ Paradojas de la Inteligencia Artificial

Por Eduardo Reynoso, Socio Director de JedAIs, empresa de capacitación y certificación de Inteligencia Artificial.

El enorme potencial de Inteligencia Artificial se contrapone a la inseguridad empresarial por inminentes riesgos.

tiene el potencial de generar ganancias masivas en la productividad económica y permitir un cambio social positivo en todo el mundo. No en vano, el número de empresas que adoptan software, herramientas y plataformas impulsadas por IA, incluida la IA generativa (gen AI), aumenta día a día. La adopción de esta solución aumentó más del doble desde 2017.

Sin embargo, de forma simultánea presenta inquietudes: los líderes empresariales dudan de que sus organizaciones estén preparadas para implementar y escalar la tecnología de manera segura y responsable.

Es decir, junto con su potencial para impulsar productividad e innovación, la IA genérica conlleva riesgos como alucinaciones, resultados inexactos o sesgados, posibles infracciones a los derechos de autor y otros.

Así, para capturar todo el valor potencial de la IA, las organizaciones necesitan generar confianza. Ésta se obtiene a través de la comprensión de los resultados del software impulsado por la IA y cómo se crean.  Un algoritmo es explicable cuando se puede interpretar y entender cómo obtiene sus predicciones o resultados.

Esta explicabilidad ayuda a las organizaciones a comprender el funcionamiento interno de los sistemas y supervisar la objetividad y precisión de sus resultados. Esto aumenta la confianza y compromiso entre quienes utilizan herramientas de IA.

El panorama actual de la IA está plagado de incertidumbre y, a medida que las regulaciones globales de IA comienzan a tomar forma, la necesidad de explicar e interpretar algoritmos es cada vez mayor.

Así, más organizaciones buscan pautas sobre cómo determinar qué nivel de explicabilidad adoptar y cuánta información publicar sobre sus modelos. La Ley de IA de la UE, por ejemplo, impone requisitos de transparencia específicos para diferentes casos de uso de IA clasificados según su marco basado en el riesgo.

Por ejemplo, en el caso de los sistemas de IA de alto riesgo, como los sistemas utilizados en la contratación, como el software de clasificación de currículos, las organizaciones deben proporcionar información sobre capacidades del sistema, limitaciones, linaje de datos y lógica detrás de las decisiones que toma.

Para responder a las regulaciones de IA, las organizaciones necesitan métodos que proporcionen visibilidad sobre cómo se construyen los modelos de IA y cómo se pueden probar antes de su lanzamiento.

Las organizaciones también necesitan soluciones de observación que proporcionen suficiente información sobre sus modelos de IA para garantizar que cumplen con las regulaciones y sus propios valores y estándares.

Esto plantea preguntas cruciales: ¿Están las organizaciones preparadas para ofrecer este nivel de transparencia? ¿Cuentan con las capacidades y tecnologías necesarias? ¿Crean plataformas e innovadores métodos de medición fiables?

El objetivo final es garantizar que estos resultados sean de alta calidad, no contaminados por sesgos, inexactitudes o alucinaciones. Sólo en esta medida se desdibujará la actual y preocupante paradoja de la IA.

Tagged: