En las organizaciones necesitamos sistemas de control para mantener la gobernanza, anticipar, detectar y responder frente a los riesgos, y actuar en un marco de normas internas y otras establecidas por terceras partes  como son las leyes, reglamentos, normas y contratos entre otras. La inteligencia artificial estableció un gran punto de inflexión: es fuente potencial de grandes beneficios y de grandes riesgos a la vez. En cualquier caso, las organizaciones, como sistemas sociales que son, carecen de sistemas de control natural y necesitan construirlos para existir y mantenerse en medio de la revolución de la inteligencia artificial.

Recordando fundamentos de los sistemas de control

Un sistema de control de cualquier tipo tiene cuatro componentes: acción, medición, control y referencia. Cualquiera de estos cuatro componentes puede ser automatizado; es una práctica generalizada. La referencia es el comportamiento esperado (también llamada “punto de consigna”), es decir, la meta del control. Cuando el control es del tipo lazo abierto, la referencia no retroalimenta al sistema de control; un ejemplo trivial es cuando activamos un cronómetro, el cual, al cumplirse el lapso, se detiene y ya. Por antonomasia, si el sistema de control es de lazo cerrado, la referencia se convierte en parte de la entrada; así funciona por ejemplo un dron que va ajustando su ruta de acuerdo con las fuerzas externas, como las corrientes de aire.

Diferencia entre automatización tradicional y la IA

Cuando el sistema de control no incluye IA, se basa en pasos específicos, reglas definidas a priori, no incluye aprendizaje automático; muchos robots industriales que ejecutan tareas repetitivas funcionan de esa manera, inclusive pueden estar interconectados formando parte de la Internet industrial de las cosas (IIoT) pero no tienen IA.

Los sistemas de control basados en IA, analizan los datos para conducir aprendizaje automático (machine learning) ideales para situaciones más complejas. Esta forma de “aprendizaje” se basa en reconocimiento de patrones e interpretación de secuencias de datos, como los metadatos que pueden identificar un posible ataque a una red.

Dime qué aprendes y te diré quién eres

A través de las redes neuronales las interpretaciones de un nivel pasan a otros buscando relaciones más complejas, por ejemplo, así se pasa de reconocer el contorno de un rostro humano a interpretar representación de perspectivas, tonos, semejanzas, posiciones e identificar a una persona. Se va ajustando la interpretación a través de iteraciones en las diversas capas (entrenamiento) partiendo de un conjunto conocido (datos de entrenamiento) que se usa para validar lo acertado de las interpretaciones. En este proceso se emplean varios criterios (clasificación, regresión segmentación y agrupación). De acuerdo con los contenidos en los datos de entrenamiento queda condicionado el aprendizaje.

El actual aprendizaje automático  es una metáfora del aprendizaje humano con algunas limitaciones aún que, si comprendemos y analizamos bien, resultan de gran valor para toda la organización; también en las funciones de  gobernanza, seguridad y cumplimiento (GRC). De esta breve y conocida explicación se infieren algunos retos para el estado actual de la IA a ser tomados muy en cuenta en su aplicación.

Tres retos en el contexto empresarial

Día a día se identifican nuevos beneficios y retos en todos los espacios de aplicación de la IA. Revisaremos tres riesgos significativos en el entorno empresarial: sesgo algorítmico, ciberseguridad y volumen de datos.   

  1. Sesgo algorítmico (intencional o no)

Los datos usados en el proceso pueden contener diversos sesgos de las perspectivas seguidas para delimitarlos o seleccionarlos, si consideramos, por ejemplo, el sesgo de observación selectiva, que hace que atendamos lo que queremos en función de nuestras expectativas, y desatendamos el resto de la información. Es una desviación que puede ser intencionada o puede derivarse de la percepción de los que delimitan los datos de entrenamiento.

Mucho se ha dicho de las consecuencias por la discriminación de grupos humanos (a partir de rasgos raciales, sexo y edad, entre otros) cuando los empleamos en sistemas IA dentro de la empresa. El machine learning es una rama específica de la IA que trabaja a partir de grandes volúmenes de datos y utiliza patrones estadísticos para reconocer patrones; tiene dos tipos de actuación, supervisado y no supervisado. Este último intenta descubrir patrones ocultos y sus resultados pueden ser más o menos precisos, pero no siempre acertados.        

También los filtros para ajustar los resultados a lo social, político o económicamente aceptado, conduce a sesgos de observación selectiva. El matemático y estadístico Jhon Tukey afirmo que “es mejor tener una repuesta aproximada a la pregunta correcta que una respuesta exacta a la pregunta equivocada”, una afirmación pertinente, especialmente en el caso de los prompt empleados en la IA generativa y también en el código de los algoritmos.

Se puede generalizar que la IA devuelve su mejor suposición a partir de un marco de referencia. En la empresa debemos comenzar por entender cuál es la problemática que se quiere analizar y las preguntas que interesa formular antes de seleccionar la aplicación IA conveniente, considerando si es un desarrollo estándar ya “entrenado” o una solución específica. Alterar esa secuencia de pasos degradará peligrosamente los resultados, sin que se detecte en una primera etapa.  

  1. Ciberseguridad

Las aplicaciones de IA pueden ser objetivos de ciberataques de gran impacto en organizaciones con marcos de ciberseguridad y gobernanza inadecuados, desde lo estratégico hasta lo operacional. Al omitir estas tareas, se genera oscuridad en la gobernanza y se afectan todas las dimensiones de la seguridad (disponibilidad, confidencialidad e integridad) y la privacidad.

El aumento de los riesgos en tecnología ha convertido la ciberseguridad en commodities, algo que se puede vender y comprar, y no como una construcción continua inherente a cada organización en la era digital. Aunque se incluye en todas las mejores prácticas y marcos referenciales y se demuestra en lo cotidiano, ejercer gobernanza sobre la seguridad de la información y la ciberseguridad es indispensable en las organizaciones de hoy.       

La ciberseguridad se beneficia con el uso de la IA en la prevención en temas como la detección y análisis predictivo de amenazas, así como en la automatización de tareas; también en la administración de contraseñas e identidades, gestión de cambios,  y en el análisis forense digital. Las opciones se multiplican. Antes de implementar soluciones, deben estudiarse, pues los sistemas control con IA son de lazo cerrado y si dejamos brechas estas se amplifican.

El uso seguro de la IA se aborda desde el nivel estratégico, antes de lo tecnológico, asumiendo la ambivalencia como arma en contra e instrumento a favor. Vale la pena reflexionar sobre lo que ha dicho el profesor de IA de la Universidad de Stanford: “…creo que la IA es casi una disciplina de humanidades”.

Volumen de datos

Para que fluya el aprendizaje automático  y el aprendizaje profundo (deep learning, DL) necesitan gran volumen de datos. Las magnitudes referenciales varían en función de varios parámetros; el aprendizaje automático con frecuencia requiere datos de al menos 365 días, y el DL usualmente requiere cientos de miles de datos. En el estado actual, una solución aplicada sin el volumen adecuado de datos puede ser como perseguir mosquitos con un misil, el cual impactará donde no queremos.

El especialista en ciencia de datos hace su trabajo, pero no magia. El paradigma actual es que actuamos centrado en datos. Si partimos de data incipiente, sesgada o inexacta, los resultados de la IA reflejarán estas fallas en proporción y forma incierta. Los datos anonimizados o enmascarados también influyen en la acción de la IA. El volumen y veracidad de datos es un aspecto crítico a evaluar.

Sugerencia                            

En un ambiente híperdinámico, hay grandes retos para las sociedades en casi todas las aéreas de la actividad económica, social, geopolítica, además de la urgencia de atender la ecología global; también existe preocupación por temas como la privacidad, las leyes y la profundización de persistentes y nuevas brechas. La inteligencia artificial débil (fase actual) puede ser un gran recurso para responder a esos retos, si la consideramos como algo más que una nueva tecnología digital. Nos ayuda si cambiamos nuestros criterios de dirección y gestión para adecuarlos a entornos más interconectados, lo cual puede generar resiliencia o transferir debilidad.  Es también la oportunidad de construir el camino a futuras etapas de la IA como extensión de la inteligencia humana y no como antagonista.                

Algunas voces se preocupan, con razón, por un escenario de inteligencia artificial fuera de control; en general, y específicamente en la empresa, es más pertinente ocuparnos de la gobernanza de la IA, pues estaremos, además, haciendo un gran aporte a las sociedades: esa tarea comienza en el nivel directivo.

@MilthonJChavez