Новости по тегу "трансформеры"
Подборка публикаций, содержащих тег "трансформеры". Актуальные темы и важные события.

Как служба поддержки ЮMoney научилась общаться с пользователями из разных стран, не зная их языка
Привет, Хабр. Мы – Даша (инженер машинного обучения) и Наташа (ведущий аналитик в ЮMoney). В этой статье расскажем о системе машинного перевода,...

Кофе — мой type, музыка — мой out: строим NERвный-пайплайн на продуктовых запросах
Привет, Хабр! На связи команда Ad-Hoc аналитики X5 Tech. В этой статье расскажем, как мы научили поиск извлекать важные сущности из запросов...

В поисках алгоритма интеллекта — тезисы и комментарии. Часть 1
В августе выходит моя книга по эпистемологии и философии науки “Пролегомены ко всякому знанию”. В книге представлен новая концепция...

Путешествие одного промпта: Что на самом деле происходит под капотом у LLM?
Загадка работы LLM: что происходит, когда вы нажимаете Enter? Разбираем пошагово путь вашего промпта от токенизации до генерации ответа. Узнайте,...

15 примеров применения Natural Language Processing
Машинное обучение — это технология искусственного интеллекта, используемая для распознавания закономерностей, обучения на основе данных и принятия...

TimeCoder: Быстрое кодирование нечетких временных выражений для RAG-систем и не только
В этой статье хочу рассказать о задаче с которой мы столкнулись и о найденном решении. Надеюсь наш опыт окажется кому-то полезен и натолкнет на...

Эмпатичный ИИ: как трансформеры учатся распознавать эмоции в разговорах
В эпоху чат-ботов и голосовых помощников ИИ всё чаще становится собеседником человека. Но чтобы стать по-настоящему полезным в коммуникации, он...

Внимание! Механизм внимания в трансформерах оказывается не таким уже незаменимым
Механизм внимания в трансформерах, который уже много лет “is all we need”, оказывается не таким уже незаменимым. Это, конечно, не очень правдивый...

[Перевод] Глубокое обучение в науке вредно без глубокой проверки фактов
Глубокое обучение гламурно и ажиотажно. Если обучить трансформер (современную языковую модель) на датасете из 22 миллионов ферментов, а затем...

Как я обошел современные GPT модели с помощью GPT2-small на задачах рассуждения
Не так давно я уже писал статью по такому необычному явлению, как гроккинг - отложенная генерализация. Если долго тренировать модель на наборе...

Как работает Трансформер: очень простое описание
Вот очень простое объяснение для тех, кто не хочет вдаваться в сложную математику, но и не готов принимать эту ключевую технологию как магию,...

Нейросетевой подход для классификации событий отслеживаемых сверхширокополосным радаром
В данной статье речь пойдёт о том, как используя разные архитектуры нейронных сетей классифицировать данные полученные со сверхширокополосного...