Новости по тегу "LLM"
Подборка публикаций, содержащих тег "LLM". Актуальные темы и важные события.

AutoPrompting: как улучшить промпты, сэкономив время и ресурсы промпт-инженеров
В этой статье мы говорим об автопромптинге - что это такое, зачем он нужен и как он помогает уже сегодня промпт-инженерам. Читать далее

От промтов к агентам: как мы дошли до трансформеров, что LLM умеют уже сейчас и что нас ждёт в 2027 году
Привет! Меня зовут Александр Фролов, я data scientist отдела машинного обучения в Нетологии. В этой статье я коротко расскажу, откуда взялись LLM,...

MAKE STOP
Только что Claude Code выдал такое, что я не могу не опубликовать. Он работал над вполне обычной задачей, и внезапно у него слетела крыша. Это...

Показываю юзкейсы MCP серверов внутри Claude Desktop
Для кого статьяКому интересно узнать, как через Claude можно управлять практически любым сервисом, общаясь с LLM как с обычным сотрудникомВ статье...

Туториал: запускаем Hunyuan-A13B модель на vLLM и на llama.cpp
Недавно вышла новая модель - Hunyuan-A13B:https://huggingface.co/tencent/Hunyuan-A13B-Instruct-GPTQ-Int4 (это уже квант) Читать далее

Веб-агенты, которые действительно понимают веб-сайты: как слой восприятия Notte решает проблему DOM
Фундаментальная проблема веб-агентов заключается не в автоматизации — а в восприятии. Как позволить LLM навигировать и действовать на веб-сайтах,...

Попытка поставить идеи и гипотезы на поток – швейцарский нож для стартапов
Привет, меня зовут Кирилл! Мы с друзьями давно увлекаемся идеями и экспериментами «в стол». Знакомо, когда возникает куча интересных мыслей, но...

От понимания файнтюнинга LLM до файнтюнинга мультимодальных моделей
Что такое дообучение LLM и зачем оно нужно?Дообучение больших языковых моделей (LLM) — это способ адаптировать их под свои задачи, сделать их...

Скучная правда про LLM: эффект дают не громкие слова, а простые сценарии с очевидной ценностью
Привет, Хабр! Вы, наверное, часто слышали, как топы западных ИТ-компаний хвалятся: «Сейчас внедрим LLM вместо сотрудников и будем только смотреть,...

Как LLM решают вопросы в духе “Что? Где? Когда?” — эксперимент и выводы
Провёл эксперимент: дал современным языковым моделям логические вопросы в духе «Что? Где? Когда?». В статье — наблюдения, примеры ответов,...

Почему Telegram может стать новым лидером в гонке ИИ
В гонке искусственного интеллекта доминируют гиганты с огромными вычислительными ресурсами — OpenAI, Google, Meta. Однако Telegram, благодаря...

Text-to-LoRA: мгновенная адаптация трансформеров
Исследователи Sakana AI разработали Text-to-LoRA (T2L), гиперсеть, которая динамически генерирует веса Low-Rank Adaptation (LoRA) для больших...