Новости по тегу "LLM"

Подборка публикаций, содержащих тег "LLM". Актуальные темы и важные события.

Нет изображения

AutoPrompting: как улучшить промпты, сэкономив время и ресурсы промпт-инженеров

В этой статье мы говорим об автопромптинге - что это такое, зачем он нужен и как он помогает уже сегодня промпт-инженерам. Читать далее

11.07.2025 16:12
8
Нет изображения

От промтов к агентам: как мы дошли до трансформеров, что LLM умеют уже сейчас и что нас ждёт в 2027 году

Привет! Меня зовут Александр Фролов, я data scientist отдела машинного обучения в Нетологии. В этой статье я коротко расскажу, откуда взялись LLM,...

11.07.2025 07:45
8
Нет изображения

MAKE STOP

Только что Claude Code выдал такое, что я не могу не опубликовать. Он работал над вполне обычной задачей, и внезапно у него слетела крыша. Это...

10.07.2025 19:09
7
Нет изображения

Показываю юзкейсы MCP серверов внутри Claude Desktop

Для кого статьяКому интересно узнать, как через Claude можно управлять практически любым сервисом, общаясь с LLM как с обычным сотрудникомВ статье...

10.07.2025 07:42
6
Нет изображения

Туториал: запускаем Hunyuan-A13B модель на vLLM и на llama.cpp

Недавно вышла новая модель - Hunyuan-A13B:https://huggingface.co/tencent/Hunyuan-A13B-Instruct-GPTQ-Int4 (это уже квант) Читать далее

10.07.2025 05:29
6
Нет изображения

Веб-агенты, которые действительно понимают веб-сайты: как слой восприятия Notte решает проблему DOM

Фундаментальная проблема веб-агентов заключается не в автоматизации — а в восприятии. Как позволить LLM навигировать и действовать на веб-сайтах,...

10.07.2025 05:11
9
Нет изображения

Попытка поставить идеи и гипотезы на поток – швейцарский нож для стартапов

Привет, меня зовут Кирилл! Мы с друзьями давно увлекаемся идеями и экспериментами «в стол». Знакомо, когда возникает куча интересных мыслей, но...

09.07.2025 09:54
6
Нет изображения

От понимания файнтюнинга LLM до файнтюнинга мультимодальных моделей

Что такое дообучение LLM и зачем оно нужно?Дообучение больших языковых моделей (LLM) — это способ адаптировать их под свои задачи, сделать их...

08.07.2025 08:15
9
Нет изображения

Скучная правда про LLM: эффект дают не громкие слова, а простые сценарии с очевидной ценностью

Привет, Хабр! Вы, наверное, часто слышали, как топы западных ИТ-компаний хвалятся: «Сейчас внедрим LLM вместо сотрудников и будем только смотреть,...

08.07.2025 07:50
7
Нет изображения

Как LLM решают вопросы в духе “Что? Где? Когда?” — эксперимент и выводы

Провёл эксперимент: дал современным языковым моделям логические вопросы в духе «Что? Где? Когда?». В статье — наблюдения, примеры ответов,...

07.07.2025 19:14
9
Нет изображения

Почему Telegram может стать новым лидером в гонке ИИ

В гонке искусственного интеллекта доминируют гиганты с огромными вычислительными ресурсами — OpenAI, Google, Meta. Однако Telegram, благодаря...

07.07.2025 08:43
5
Нет изображения

Text-to-LoRA: мгновенная адаптация трансформеров

Исследователи Sakana AI разработали Text-to-LoRA (T2L), гиперсеть, которая динамически генерирует веса Low-Rank Adaptation (LoRA) для больших...

06.07.2025 13:46
12