Tecnologia
AMD lança plugin vLLM-ATOM para acelerar a performance de IA no DeepSeek, Kimi e outros
A nova solução da AMD, o vLLM-ATOM, otimiza a inferência de grandes modelos de linguagem como o DeepSeek-R1 e o Kimi-K2 sem alterar as APIs e fluxos de trabalho existentes do vLLM. Com foco nas GPUs Instinct, o plugin oferece uma migração de "zero custo de aprendizado" para empresas, melhorando o desempenho e a eficiência da memória.
IT IT之家硬科技Atualizado 2 h1 min de leitura
A nova solução da AMD, o vLLM-ATOM, otimiza a inferência de grandes modelos de linguagem como o DeepSeek-R1 e o Kimi-K2 sem alterar as APIs e fluxos de trabalho existentes do vLLM. Com foco nas GPUs Instinct, o plugin oferece uma migração de "zero custo de aprendizado" para empresas, melhorando o desempenho e a eficiência da memória.
This page shows a summary and AI analysis only. For the full original article, use the “Read Original” button above.