«Золотая рыбка, хочу LLM без GPU»: как собрать Inference-сервер на CPU
Допустим, вам нужно протестировать LLM на сотни миллиардов или почти триллион...
Подборка публикаций, содержащих тег "Инференс". Актуальные темы и важные события.
Допустим, вам нужно протестировать LLM на сотни миллиардов или почти триллион...
Компания AMD объявила о покупке ИИ-стартапа MK1 для наращивания своих...
Привет, Хабр! Меня зовут Антон, и сейчас я активно занимаюсь вопросами...
В процессе разработки RAG-системы для обработки видеоконтента передо мной...
Привет, Хабр! В этой статье я расскажу про наш LLM инференс-кластер YADRO:...
Несколько лет назад у меня на прошлой работе состоялась интересная дискуссия с...
В последнее время я много работал с TPU и мне было интересно наблюдать такие...
Мечтаете запустить нейросеть на компьютере и анализировать целые книги или...
Привет! Я — Миша Тринога, менеджер по продуктовому маркетингу в Selectel. По...
Привет, Хабр! Меня зовут Антон, я DevOps-инженер в команде Data/ML-продуктов...
Привет, Хабр. Меня зовут Иван Добряев, я разработчик программного обеспечения в...
Привет, Хабр! На связи Артём Петров, я занимаюсь разработкой ПО в центре...