Isso significa que o próprio modelo não tem acesso a credenciais no Vault 1Password. Portanto, quando solicitado a fazer login na AWS, por exemplo, ele deve seguir um fluxo separado, bem definido e com permissão via OAuth ou uma ferramenta de corretor de credenciais dedicados. Os usuários devem ver solicitações que possam entender e saber exatamente a que estão concedendo acesso.
Além disso, as credenciais brutas nunca devem entrar no contexto LLM. “Os segredos brutos não têm lugar em avisos, incorporações ou dados de ajuste fino”, enfatizou Srinivas. O envio de credenciais sobre um canal de dados orientado a LLM é “o equivalente a digitar seu aviso: ‘Meu token da API para a AWS é xxxxx, vá em frente e use-o em meu nome.'”
A auditabilidade também é crítica; Todas as ações devem deixar uma trilha de auditoria para que as empresas tenham visibilidade em quem (humano ou sintético) acessou o quê e quais ações ocorreram, de acordo com Srinivas. “Não haverá tomada de decisão oculta de IA, escalações silenciosas ou vagos ‘alimentados por rótulos de IA’ sem explicação”.
Fonte: Computer World




