Научитесь создавать AI-инструменты, которые помогают в работе: находят нужную информацию, отвечают на вопросы и получают данные из внешних сервисов — от no-code прототипа до простого Python-бота
Это практический интенсив, на котором вы шаг за шагом пройдёте путь от простой no-code сборки до локального приложения с поиском по документам, подключением сервисов и Telegram-интерфейсом
За 4 вебинара вы получите необходимые навыки LLM-инженера и соберёте основу ассистента: настроите поиск и обработку ваших данных, подключите инструменты, добавите свою логику и запустите Telegram-бота с фоллбэком на GPT-4o
Программа выстроена так, чтобы вы понимали не только шаги, но и общую логику работы AI-ассистентов: подготовку данных, механизм поиска, подключение инструментов через MCP и выполнение запросов
кому подойдёт этот курс >>
Вы освоите архитектурный паттерн RAG и научитесь работать с ключевыми компонентами современного AI-стека: сервером локальных моделей (Ollama), векторной базой данных (pgvector) и MCP-сервером для интеграции инструментов
Хотите использовать LLM для работы с технической документацией, кодовой базой и тест-кейсами?
Разработчикам и QA-инженерам
Вы научитесь проектировать и собирать прототипы AI-сервисов, интегрировать внешние инструменты через MCP-сервер и работать с векторными базами данных для поиска по документации
Работаете с требованиями, отчётами и базами знаний?
Аналитикам
Вы научитесь интегрировать LLM-компоненты в IT-ландшафт компании: разворачивать локальные модели через Ollama, работать с векторными базами и подключать внешние сервисы для создания безопасных и масштабируемых AI-ассистентов
Нужно автоматизировать поиск по логам, отчётам об инцидентах и внутренней документации?
IT-специалистам, DevOps и архитекторам
Как проходит обучение //
Как проходит обучение
Записи, код, примеры пайплайнов, инструкции по установке инструментов — всё останется у вас навсегда
Постоянный доступ к материалам
Все занятия — онлайн с преподавателем. Можно задавать вопросы и разбирать кейсы прямо во время урока
Удобное время занятий
Вы делаете всё своими руками: от Flowise-сборки до Telegram-бота
Фокус на практику
Во время занятий можно уточнять детали, разбирать ошибки и получать рекомендации по улучшению вашего ассистента
Поддержка преподавателя
чему вы научитесь /?/
Соберёте ассистента, который понимает ваши файлы, отвечает на вопросы и помогает быстрее находить нужные данные
Быстро находить нужную информацию в документах и базе знаний
Настроите подключение API через MCP, чтобы ассистент сам подгружал свежие данные — например, погоду, курсы или внутренние метрики
Автоматически получать данные из внешних сервисов
Освоите low-code: сможете управлять поиском, обрабатывать ошибки и переключать модели для более точных ответов
Настраивать поведение ассистента под ваши задачи
Разберётесь, как работает цепочка поиска и генерации, как подключаются инструменты и как тестировать функции при создании LLM
Создавать собственные прототипы на базе LLM
Освоите разбиение текста, базу pgvector и FastAPI endpoint /query для семантического поиска по своим документам
Работать с локальной векторной базой и API
Соберёте бота на python-telegram-bot v21, настроите webhook, команды /ask и /upload и авторизацию по chat-id. Бот будет работать на локальной модели через Ollama
Собирать и запускать Telegram-ассистента
преподаватель курса >>
Ярослав Шуваев
> 20+ лет опыта в цифровой разработке > 10+ лет опыта внедрения и запуска инновационных цифровых продуктов в корпорациях Альфа-Банк, Ак Барс Банк, МТС, Viasat и других > 10+ лет опыта в корпоративном обучении
программа курса //
Разберём, как загрузить документ, обработать текст так, чтобы ассистент мог по нему искать, и подключить модель в удобном визуальном интерфейсе
Покажем, как организовать последовательность работы ассистента: поиск данных, обработка моделью и выполнение инструментов. Подключим OpenAI functions и Ollama
Покажем, как добавить готовые инструменты (например, получение погоды или других данных через API) и объясним, как работает Model Context Protocol
Разберём, как разбивать документы, хранить их в pgvector и обрабатывать запросы через FastAPI при помощи инструмента вайб-кодинга (Cursor)
Разберём, как добавить небольшие фрагменты JS или Python, чтобы управлять поиском, обрабатывать ошибки и переключать модели
Покажем, как настроить команды, webhook, авторизацию и работу через Ollama
Разберём, как загрузить документ, обработать текст так, чтобы ассистент мог по нему искать, и подключить модель в удобном визуальном интерфейсе
Покажем, как добавить готовые инструменты (например, получение погоды или других данных через API) и объясним, как работает Model Context Protocol
Разберём, как добавить небольшие фрагменты JS или Python, чтобы управлять поиском, обрабатывать ошибки и переключать модели
Покажем, как организовать последовательность работы ассистента: поиск данных, обработка моделью и выполнение инструментов. Подключим OpenAI functions и Ollama
Разберём, как разбивать документы, хранить их в pgvector и обрабатывать запросы через FastAPI при помощи инструмента вайб-кодинга (Cursor)
Покажем, как настроить команды, webhook, авторизацию и работу через Ollama
Для начала — нет. Первые занятия проходят полностью в no-code/low-code. Во второй части курса будут небольшие фрагменты JS и Python в готовых шаблонах. Базовое понимание синтаксиса поможет, но не является обязательным
Ноутбук и возможность установить Flowise, Python, Ollama и Postgres. Все инструкции дадим на курсе
Да, все записи и материалы остаются у вас навсегда
Да. Итогом курса станет рабочий прототип AI-ассистента, который можно адаптировать под задачи вашей команды