La divulgación por parte de Anthropic sobre el desvío de modelo en su sistema de inteligencia artificial Claude destaca los crecientes riesgos relacionados con la gobernanza y la alineación continua de la inteligencia artificial. La empresa ha revisado sus directrices utilizando un enfoque de “IA Constitucional” para inculcar comportamientos basados en el razonamiento y establecer límites éticos, reconociendo abiertamente que los controles internos de una IA pueden cambiar de manera impredecible con el tiempo, lo cual es preocupante cuando estos modelos se integran profundamente en los flujos de trabajo empresariales. Esta admisión centra la atención en la gobernanza y la rendición de cuentas más allá de la seguridad del modelo, dejando claro que la IA probada por una empresa puede diferir sustancialmente después de un periodo de uso extendido, especialmente a medida que aumenta la personalización.
Respaldando estas preocupaciones, la investigación de Anthropic demostró que los grandes modelos lingüísticos—incluidos los de Google y Meta—pueden experimentar desviaciones de personalidad, con cambios no deseados en el comportamiento debido a la inestabilidad de los mecanismos de control internos. Las nuevas ofertas de IA de Google, que vinculan datos personales de Gmail y Fotos a las respuestas generadas por modelos, intensifican los desafíos en torno a la gobernanza de datos y el control organizativo. A medida que los proveedores expanden la personalización y memoria de la IA, pueden surgir brechas de supervisión, cuestionando quién mantiene la autoridad sobre la información, la inferencia y la toma de decisiones en sistemas automatizados.
Hallazgos relacionados indican que las ganancias de productividad esperadas de la IA aún no se han materializado en la mayoría de las empresas. Según encuestas citadas por Dave Sobel, más de la mitad de los directores ejecutivos afirman que no han logrado un retorno de la inversión en IA, mientras que los empleados de primera línea describen las integraciones de IA como fuentes de fricción y una carga de trabajo adicional en lugar de un alivio. En el sector de MSP, la adopción generalizada de IA “agéntica” y mano de obra digital está generando beneficios financieros para algunos proveedores, pero también está trasladando las responsabilidades operativas, especialmente cuando los contratos y arquitecturas de seguridad no se actualizan al ritmo de las nuevas realidades del flujo de trabajo.
La conclusión principal para los MSP y proveedores de servicios de TI es la necesidad de reexaminar el control, la autoridad y las obligaciones contractuales en entornos habilitados por IA. Delegar tareas a agentes automatizados aumenta la exposición a riesgos no valorados y no mitigados si los mecanismos de gobernanza, responsabilidad y monitoreo no se adaptan en consecuencia. La reducción efectiva de daños en este escenario requiere tratar los flujos de trabajo—y no solo los modelos—como perímetros de seguridad, clarificar la responsabilidad de las acciones impulsadas por IA y asegurar que los marcos contractuales y operativos reflejen estas nuevas fuentes de riesgo.