В этом выпуске дайджеста представлен ряд новых больших языковых моделей (LLM), появившихся с начала 2024 года. После общего сравнения метрик на основных бенчмарках мы рассмотрели подробнее несколько ключевых инноваций, в частности, архитектуры Mixture of Experts (MoE), 1.58 bit LLM и мультимодальные подходы. Также отмечены особенности моделей, работающих с русским языком. Вторая часть дайджеста касается новых эффективных способов дообучения LLM (RAFT, ReFT). В завершении мы сделали обзор 4 основных шаблонов проектирования агентов для повышения качества работы языковых моделей в различных комплексных задачах.
Ссылка на презентацию
https://docs.google.com/presentation/d/1W7SwU_G4CYOJU8zU4vwfRsF6TBf_yqpLeot5tKU89TY/edit?usp=sharing
Ссылка на презентацию
https://docs.google.com/presentation/d/1W7SwU_G4CYOJU8zU4vwfRsF6TBf_yqpLeot5tKU89TY/edit?usp=sharing
- Категория
- Отзывы об авторах курсов
Комментариев нет.