A nova solução da AMD, o vLLM-ATOM, otimiza a inferência de grandes modelos de linguagem como o DeepSeek-R1 e o Kimi-K2 sem alterar as APIs e fluxos de trabalho existentes do vLLM. Com foco nas GPUs Instinct, o plugin oferece uma migração de "zero custo de aprendizado" para empresas, melhorando o desempenho e a eficiência da memória.

This page shows a summary and AI analysis only. For the full original article, use the “Read Original” button above.