A evolução da Inteligência Artificial (IA) local atinge um novo patamar com o lançamento do MLPerf Client 1.0. Esta atualização robusta representa um avanço significativo em relação à versão anterior (0.6), consolidando-se como uma ferramenta indispensável para medir o desempenho de IA diretamente em seu hardware. Seu principal destaque é a introdução de uma interface gráfica amigável (GUI), projetada para democratizar o acesso aos testes de benchmark de IA, atraindo desde usuários casuais até desenvolvedores e testadores profissionais.
O MLPerf Client 1.0 expande consideravelmente o suporte a diversos modelos de IA e otimiza a aceleração de hardware em uma gama mais ampla de dispositivos. Agora, a ferramenta permite testar o desempenho de populares modelos de linguagem de grande porte (LLMs), como o Llama 2 7B Chat e Llama 3.1 8B Instruct da Meta, e o Phi 3.5 Mini Instruct da Microsoft. Essa capacidade aprimorada torna o benchmark mais abrangente para avaliar o comportamento de diferentes inteligências artificiais em variados cenários de interação.
Além disso, a ferramenta oferece suporte ao modelo experimental Phi 4 Reasoning 14B, um exemplo claro do foco em testar o desempenho com modelos de linguagem de última geração que possuem um conjunto maior de parâmetros e recursos avançados. O MLPerf Client 1.0 também aprimorou a variedade de tipos de prompts, permitindo a análise de código – uma funcionalidade crucial para desenvolvedores – e a medição da sumarização de conteúdo com grandes janelas de contexto (4.000 ou 8.000 tokens), um recurso experimental inovador.
Para baixar o MLPerf Client 1.0 e começar a testar o desempenho de IA em seu dispositivo, basta acessar a página oficial no GitHub. Este software é uma iniciativa do consórcio MLCommons e seu grupo de trabalho MLPerf Client, que colabora com os principais fornecedores de hardware e software para manter um benchmark de cliente padrão da indústria.
Para testadores de hardware e entusiastas, o MLPerf Client 1.0 proporciona um conjunto de cargas de trabalho mais escalável e abrangente em múltiplos dispositivos, permitindo uma avaliação precisa do desempenho de IA local em diversas configurações. É importante notar que algumas cargas de trabalho desta versão exigem uma GPU com 16 GB de VRAM para execução eficiente. Essa exigência sublinha o foco da ferramenta em priorizar o hardware de ponta, expandindo o escopo além de gráficos integrados e NPUs.
As pilhas de hardware e software para IA do cliente são dinâmicas, e há inúmeras maneiras de acelerar cargas de trabalho de IA localmente. Felizmente, o MLPerf Client 1.0 expande a cobertura desses caminhos de aceleração para mais hardwares do que nunca, com um foco notável em dispositivos Qualcomm e Apple.
Abaixo, detalhamos os hardwares e tecnologias suportados, demonstrando a vasta versatilidade do benchmark para aceleração de IA:
Um dos aprimoramentos mais impactantes do MLPerf Client 1.0 é a implementação de uma interface gráfica de usuário (GUI). Essa novidade permite que os usuários explorem facilmente toda a gama de benchmarks disponíveis para seus hardwares, selecionando e executando os testes de forma intuitiva. Esta transição é um marco importante, pois as versões anteriores do MLPerf Client operavam exclusivamente via linha de comando, tornando-o menos acessível.
Além da facilidade de seleção, a nova versão oferece monitoramento em tempo real dos diversos recursos de hardware de um sistema. Isso é fundamental para que os usuários possam verificar rapidamente se o caminho de execução escolhido está utilizando a GPU ou NPU esperada para a aceleração de IA. Essa facilidade de uso certamente ampliará o apelo do benchmark, tornando-o acessível tanto para usuários casuais que desejam testar seus dispositivos quanto para testadores profissionais de hardware que precisam coletar e comparar resultados em diversas configurações de hardware e software.
O crescimento exponencial da Inteligência Artificial é inegável, impulsionando um verdadeiro “boom” no setor. Empresas como a NVIDIA colhem frutos com receitas recordes, enquanto outras, como a Intel, reconheceram desafios e enfrentam reestruturações, incluindo demissões.
Apesar de muitas tecnologias interagirem com as versões mais avançadas de modelos de IA na nuvem – com serviços líderes como ChatGPT, Claude e Gemini permanecendo baseados em nuvem – a execução local de modelos de IA ainda apresenta vantagens significativas. Por razões que incluem privacidade, pesquisa e controle dos dados, os modelos de IA executados localmente permanecem de grande interesse para usuários e empresas. Nesse contexto, a capacidade de medir de forma confiável e neutra o desempenho da IA em sistemas cliente, utilizando GPUs e NPUs, é absolutamente crucial.
A IA do cliente continua a ser um espaço de desenvolvimento vital, à medida que os fornecedores de hardware e software trabalham para definir os tipos de cargas de trabalho mais adequadas para execução local e os recursos computacionais ideais para suportá-las. Ferramentas como o MLPerf Client 1.0 são, portanto, essenciais para impulsionar a inovação e fornecer transparência no promissor ecossistema da IA local.
Acompanhe mais novidades sobre inteligência artificial e tecnologia: