1. Establecer límites, barreras de seguridad y código tradicional
Cuando la gente piensa por primera vez en los agentes de IA, suele pensar en un chatbot con superpoderes. No solo responde a preguntas, sino que también realiza búsquedas en la net, responde a correos electrónicos y hace compras. En un contexto empresarial, sería como tener una IA como compañero de trabajo. Pero esa no es la única forma de pensar en los agentes, y no es así como la mayoría de las empresas los están implementando. “La IA agentiva no es binaria”, afirma Joel Hron, director de tecnología de Thomson Reuters. “Es un espectro. Podemos darle mucha libertad en cuanto a lo que hace o podemos hacerla muy restrictiva y prescriptiva”.
Las empresas también limitan la autonomía de los agentes de múltiples formas. Las más comunes son crear barreras a su alrededor, incluir a personas en el proceso para controlar sus acciones y eliminar por completo su capacidad de actuar, obligándoles a trabajar a través de sistemas tradicionales, seguros y deterministas para realizar sus tareas. En Parsons Company, una empresa de ingeniería de defensa e infraestructuras críticas, todo comienza con un entorno seguro. “Se confía, pero solo dentro de las barreras de protección y las barreras que se han establecido”, afirma Jenn Bergstrom, vicepresidenta de nube y datos de la empresa. “Tiene que ser un entorno de confianza cero, para que el agente no pueda hacer nada para eludir las barreras”. A continuación, dentro de esos límites, la atención se centra en desarrollar poco a poco una relación de confianza con el agente. “En este momento, el ser humano tiene que dar su aprobación y el agente tiene que obtener primero el permiso explícito de un ser humano”, afirma Bergstrom. El siguiente paso es que los agentes actúen de forma autónoma, pero con la supervisión de los seres humanos, afirma. “Y lo último es el comportamiento verdaderamente agentivo, que no necesita alertar a nadie sobre lo que está haciendo”.
Otro enfoque que utilizan las empresas para los procesos comerciales más arriesgados es utilizar la menor cantidad posible de IA. En lugar de un sistema de agencia en el que los modelos de IA planifican, ejecutan y verifican las acciones, la mayor parte del trabajo se gestiona mediante procesos tradicionales, deterministas y programados. En otras palabras, código de la vieja escuela. “No se trata solo de que confíes en OpenAI, Claude o Grok”, afirma Derek Ashmore, director de transformación de aplicaciones en Asperitas Consulting. La IA solo se utiliza para realizar las tareas que solo ella puede hacer. Así, si se utiliza la IA para convertir un conjunto de datos sobre un cliente potencial en una carta de ventas bien redactada, la información necesaria se recopila a la manera tradicional y la carta se envía utilizando mecanismos tradicionales.