Новости по тегу "llama.cpp"

Подборка публикаций, содержащих тег "llama.cpp". Актуальные темы и важные события.

Нет изображения

Локальный DeepSeek-R1: Когда скорость улитки – не приговор, а точка старта

Локальный DeepSeek-R1-0528 на скромном железе? Реально. Со скоростью улитки? Первоначально – да. Но итог моего эксперимента: эту 'улитку' можно...

09.06.2025 14:21
4
Нет изображения

Тестирование производительности видеокарт на примере больших языковых моделей с использованием Llama.cpp

В последнее время большие языковые модели (LLM) становятся все более популярными, но для их эффективного запуска требуется значительная...

09.06.2025 09:56
8
Нет изображения

Как запустить локально LLM, если ее веса не помещаются в [видео]память

Некоторые люди предпочитают пользоваться не только облачными сервисами, но и запускать LLM у себя дома. Например, так можно запустить дообученные...

26.04.2025 15:59
12