Quer usar inteligência artificial (IA) que mantém a privacidade e não precisa de lago cheio de água ou gerador de eletricidade industrial para fazer um emojii? A Apple tem isso.
Pare para pensar: a bolha de IA em curso depende totalmente de investimentos em infraestrutura do lado do servidor, água e energia em níveis colossais. Embora esses serviços online possam fazer o que você pede deles, eles são realmente a melhor articulação do que a IA pode ser?
Ouse ser diferente
Acho que não, e acredito que a Apple tenha uma resposta para isso – em parte, por causa do desempenho por watt oferecido pelo Apple Silicon.
Pense desta forma: muitas das tarefas que o Apple Intelligence pode realizar para você agora não usam nenhum serviço externo, não exigem bancos de servidores e não precisam de energia adicional. Isso porque eles ocorrem no dispositivo, usando a energia contida nele (e os sistemas de refrigeração cada vez mais sofisticados que a Apple constrói).
Esses recursos do Apple Intelligence também não se limitam ao software da Apple. Graças ao trabalho da empresa em modelos básicos, esses mecanismos de modelo de linguagem grande (LLM) também estão disponíveis para uso em aplicativos de terceiros. (Volte na próxima semana para saber mais sobre O Grupo Omni trabalhar nisso e como eles encontraram uma maneira de fazer os LLMs da Apple funcionarem de maneiras ainda mais pessoais.)
Alcance as estrelas
Enquanto isso, apesar rotatividade de pessoal bem divulgada dentro das equipes de desenvolvimento de IA da Apple, a empresa está trabalhando para criar outros mecanismos LLM no dispositivo para tarefas adicionais. Embora as tarefas suportadas hoje possam parecer um pouco limitadas quando comparadas ao entusiasmo geral da indústria de IA, a Apple finalmente decolou e introduzirá LLMs adicionais ao longo do tempo. Eles também serão disponibilizados para desenvolvedores e usuários, colocando inteligência localizada em cada peça de hardware equipada com processador Apple.
Tudo isso é possível graças ao Apple Silicon, uma família de processadores líder de mercado que continua a melhorar de forma regular e iterativa e está muito à frente do que outros podem oferecer.
Esse desempenho foi desenvolvido para IA e a Apple não esconde isso. O chip M5 lançado esta semana oferece quatro vezes mais desempenho para cargas de trabalho de IA do que o processador M4 já líder de mercado. “O M5 inaugura o próximo grande salto no desempenho de IA para Apple Silicon”, disse Johny Srouji, vice-presidente sênior de tecnologias de hardware da Apple.
Um passo além
Isso não é exagero – essas melhorias proporcionam resultados reais ao executar IA em Macs (e outros dispositivos Apple). Já é bem possível executar sua própria IA local em um Mac pronto para uso. Você já faz isso sempre que usa o Apple Intelligence – ou quando executa modelos LLM usando webAI.
O que isto significa é que, embora a IA caseira da Apple ainda não se compare a concorrentes como a OpenAI em termos do que pode alcançar, ela tem a vantagem de não depender de nenhuma infraestrutura além do dispositivo que você já usa. Você pode, é claro, acessar serviços de IA de terceiros a partir de um dispositivo Apple, se desejar.
Não pare de acreditar
Portanto, embora a bolha de IA em curso exija bilhões em gastos com infraestrutura, a abordagem da Apple capacita os endpoints para executar LLMs locais conforme necessário. Isso é importante porque também abre oportunidade para soluções de IA focadas e agentes trabalhando juntos para enfrentar projetos complexos. (Alguém se lembra SETI em casa?)
Estamos acompanhando a evolução de soluções de IA focadas e flexíveis que são executadas localmente no dispositivo, oferecendo as vantagens da IA sem custos de latência, tokenização ou privacidade. Estou propondo uma flotilha de endpoints habilitados para IA, cada um usando o mínimo de energia possível, trabalhando juntos em tarefas.
Uma mudança virá
Essa abordagem tem muitas vantagens para implantações maiores, proporcionando custos fixos sem forçá-los a se tornarem dependentes de serviços baseados em nuvem. Estes últimos terão inevitavelmente de recuperar os seus vastos gastos em infra-estruturas com elevadas taxas de acesso quando o financiamento de capital de risco acabar e precisarão de ganhar dinheiro e dinheiro aos seus utilizadores apenas para sobreviver. Muitos não conseguirão.
Pense diferente. A visão da Apple de colocar inteligência em todos os seus terminais será eventualmente justificada pela história. E o maior capítulo ainda não escrito dessa história ainda será ouvido quando o Siri ganhar inteligência contextual talvez próximo ano. Se eu estiver certo sobre isso, as coisas estão prestes a ficar interessantes.
Você pode me seguir nas redes sociais! Junte-se a mim céu azul, LinkedIne Mastodonte.
Fonte: Computer World




