Новости по тегу "ollama"

Подборка публикаций, содержащих тег "ollama". Актуальные темы и важные события.

Нет изображения

Семантический поиск по статьям Хабра в PostgreSQL + индексация текстов LLM в Ollama

Покажу вам практическую реализацию семантического поиска на основе векторных представлений - эмбеддингов из текста. Здесь я создам систему,...

03.06.2025 15:43
6
Нет изображения

Запускаем Aider в Docker

Для локального вайб-кодинга понадобятся: Docker, make и видеокарта (либо арендованный сервер). Далее набираем шесть несложных команд и ловим вайб....

22.05.2025 21:42
10
Нет изображения

На входе аудио, на выходе — саммари. Собираем локальный транскрибатор из бесплатного софта

Однажды я устал расшифровывать аудио пачкой инструментов в духе «Балерино-Капучино и Бобрито-Бандито» и решил собрать свой пайплайн.В статье...

19.05.2025 13:51
11
Нет изображения

Установил DeepSeek 1.5B на слабое железо, пока остывал мой борщ

DeepSeek 1.5B — маленький, но шустрый собрат больших языковых моделей. Работает локально, не требует железа на киловатт. Внутри — инструкция по...

14.05.2025 10:51
10
Нет изображения

Пишем (и используем) ИИ-агент на Gradle и Ollama

Справедливое желание автоматизировать всё подряд заставляет чуть иначе взглянуть на использование языковых моделей для написания кода.В этой...

11.05.2025 18:33
11
Нет изображения

Больше 5090 — больше проблем? Тестируем связку из двух GPU NVIDIA

В предыдущей статье мы рассказывали, как тестировали сервер с одной RTX 5090. Теперь же мы решили установить в сервер две видеокарты RTX 5090. И...

22.04.2025 10:31
17
Нет изображения

Автодополнение кода своими руками (Docker Ollama + JetBrains IDE)

Я: хочу автодополнение кодаТакже я: у нас уже есть автодополнение кода домаАвтодополнение кода дома:Привет, Хабр! Я Саша, разработчик из Cloud4Y....

22.04.2025 07:31
15
Нет изображения

Dockerfile, только для LLM

При разработке агентов я часто сталкивался с необходимостью настройки и оптимизации моделей для дальнейшей передачи разработчикам. Помимо этого,...

21.04.2025 20:58
21