Agents Course documentation
Введение
Введение
Добро пожаловать в первый Бонусный раздел, в котором вы научитесь дообучать Большую Языковую Модель (LLM) вызову функций.
С точки зрения LLM, вызов функций быстро становится обязательной техникой.
Идея заключается в том, что вместо того, чтобы полагаться только на подходы, основанные на подсказках, как мы делали в разделе 1, вызов функций обучает вашу модель предпринимать действия и интерпретировать наблюдения на этапе обучения, делая ваш AI более надежным.
Когда мне следует выполнить этот Бонусный раздел?
Этот раздел является опциональным и более продвинутым, чем Раздел 1, поэтому не стесняйтесь либо выполнить этот раздел сейчас, либо вернуться к нему, когда ваши знания улучшатся благодаря этому курсу.
Но не волнуйтесь, в этом бонусном разделе собрана вся необходимая информация, поэтому мы расскажем вам обо всех основных концепциях дообучения модели вызову функций, даже если вы еще не изучили механизм дообучения.
Лучший способ для вас пройти этот Бонусный Раздел - это:
Знать, как дообучить LLM трансформер, если это не так изучите это
Знать, как использовать
SFTTrainer
для дообучения нашей модели, чтобы узнать об этом больше изучите документацию
Что вы узнаете
Вызов функций Как современные LLM эффективно структурируют свои диалоги, позволяя запускать Инструменты**.
LoRA (Low-Rank Adaptation). Легкий и эффективный метод дообучения, сокращающий накладные расходы на вычисления и хранение данных. LoRA делает обучение больших моделей быстрым, дешевым и простым в развертывании.
**Цикл «Мысль → Действие → Наблюдение» в моделях вызова функций Простой, но мощный подход к структурированию того, как ваша модель решает, когда (и как) вызывать функции, отслеживать промежуточные шаги и интерпретировать результаты, полученные от внешних инструментов или API.
Новые специальные токены. Мы введем специальные маркеры, которые помогут модели различать:
- Внутренние рассуждения “цепочки мыслей”
- Исходящие вызовы функций
- Ответы, поступающие от внешних инструментов
К концу этого раздела вы сможете:
- Понимать внутреннюю работу API, когда речь идет об инструментах.
- Дообучать модели с помощью техник LoRA.
- Имплементироватьи модифицировать** цикл “Мысль → Действие → Наблюдение” для создания надежных и поддерживаемых рабочих процессов вызова функций.
- Разрабатывать и использовать специальные токены, чтобы легко отделить внутренние рассуждения модели от ее внешних действий.
И вы доработаете свою собственную модель для вызова функций 🔥.
Давайте погрузимся в вызов функций!
< > Update on GitHub