“Em ambientes corporativos dinâmicos com mudanças frequentes na interface do usuário, esses agentes correm o risco de fragilidade, a menos que sejam combinados com gerenciamento de dados aumentado, retreinamento adaptativo e mecanismos de fallback; portanto, neste estágio, eles são mais adequados para fluxos de trabalho controlados do que para automação de missão crítica”, disse Dai.
O desempenho é apenas uma parte da equação. As empresas também precisarão de controles mais fortes antes de permitir que tais agentes funcionem sem supervisão em sistemas internos.
“Esses agentes são convenientes, mas uma ação desonesta pode causar danos”, acrescentou Jain. “Você precisa de estruturas de governança fortes antes de implantá-las em grande escala.”
Sheel disse que as empresas devem definir pontos claros de supervisão humana, como quando surgem “pontos críticos”, manter trilhas de auditoria para cada ação tomada pelo agente, impor controles de acesso baseados em funções e monitorar continuamente o desempenho e os erros. “Eles também devem incluir uma estratégia de remediação para quando o agente comete erros ou se comporta de forma indesejável e garantir que as políticas de governança de dados, privacidade e conformidade sejam incorporadas aos fluxos de trabalho do agente”, acrescentou Sheel.
Fonte: Computer World




