Новости по тегу "llm"
Подборка публикаций, содержащих тег "llm". Актуальные темы и важные события.

Туториал: запускаем Hunyuan-A13B модель на vLLM и на llama.cpp
Недавно вышла новая модель - Hunyuan-A13B:https://huggingface.co/tencent/Hunyuan-A13B-Instruct-GPTQ-Int4 (это уже квант) Читать далее

Веб-агенты, которые действительно понимают веб-сайты: как слой восприятия Notte решает проблему DOM
Фундаментальная проблема веб-агентов заключается не в автоматизации — а в восприятии. Как позволить LLM навигировать и действовать на веб-сайтах,...

Попытка поставить идеи и гипотезы на поток – швейцарский нож для стартапов
Привет, меня зовут Кирилл! Мы с друзьями давно увлекаемся идеями и экспериментами «в стол». Знакомо, когда возникает куча интересных мыслей, но...

От понимания файнтюнинга LLM до файнтюнинга мультимодальных моделей
Что такое дообучение LLM и зачем оно нужно?Дообучение больших языковых моделей (LLM) — это способ адаптировать их под свои задачи, сделать их...

Скучная правда про LLM: эффект дают не громкие слова, а простые сценарии с очевидной ценностью
Привет, Хабр! Вы, наверное, часто слышали, как топы западных ИТ-компаний хвалятся: «Сейчас внедрим LLM вместо сотрудников и будем только смотреть,...

Как LLM решают вопросы в духе “Что? Где? Когда?” — эксперимент и выводы
Провёл эксперимент: дал современным языковым моделям логические вопросы в духе «Что? Где? Когда?». В статье — наблюдения, примеры ответов,...

Почему Telegram может стать новым лидером в гонке ИИ
В гонке искусственного интеллекта доминируют гиганты с огромными вычислительными ресурсами — OpenAI, Google, Meta. Однако Telegram, благодаря...

Text-to-LoRA: мгновенная адаптация трансформеров
Исследователи Sakana AI разработали Text-to-LoRA (T2L), гиперсеть, которая динамически генерирует веса Low-Rank Adaptation (LoRA) для больших...

Как задеплоить Tabby — open-source альтернативу GitHub Copilot — в PrimeWay
Tabby — self-hosted-ИИ для автодополнения кода с открытым исходным кодом.PrimeWay закрывает больные места «самостоятельного» хостинга Читать далее

[Перевод] Разработка языков программирования в эру больших языковых моделей: ренессанс посредственности?
В исследовании языков программирования меня всегда наиболее привлекала их разработка.Когда аккуратно мастеришь язык программирования, синтаксис и...

Llama 3.1 и «Гарри Поттер»: сколько текста действительно запоминает ИИ?
Может ли искусственный интеллект запомнить целую книгу? А если да, что это значит для авторов, издателей и самих разработчиков ИИ? Недавнее...

Меньше — лучше: как Polaris-4B обошёл Qwen3-32B
Привет, Хабр!В июне 2025 года команда из Гонконгского университета выложила открытые модели Polaris-4B‑Preview и Polaris-7B‑Preview, обученные с...