Как поднять локальную LLM за 5 минут 🚀
Хотите свой ChatGPT, который работает локально и не требует интернета?
В статье показываю, как развернуть Ollama + OpenWebUI в Docker:
• Ollama — инструмент для запуска локальных LLM (LLaMA, Mistral, Gemma и др.)
• LLaMA — серия открытых языковых моделей от Meta
• OpenWebUI — удобный веб-интерфейс, похожий на ChatGPT, но для ваших локальных моделей
Минимальные требования: 8 GB RAM, 4 CPU, 25 GB диска.
Всё сводится к трём шагам:
Установить Docker
Настроить docker-compose с Ollama и OpenWebUI
Зайти в локальный веб-интерфейс и протестировать свою LLM 🎉
💻 Код, конфиги и пошаговая инструкция в статье!
Читать далее