Как трекать прогресс студентов на онлайн-курсе с помощью AI
Веду курс по вайбкодингу. 20 человек, восьмой поток.
Везде продают LMS с дашбордами, грейдингом, аналитикой вовлечённости.
Мне не нужно. Нужно знать КТО студент, а не СКОЛЬКО баллов.
Почему не LMS
EdTech-платформы строятся под тысячи пользователей. Автопроверка тестов, алгоритмы рекомендаций, адаптивные траектории.
Но у меня 20 человек. Каждого знаю по имени. Каждому готовлю примеры под его проект. Moodle или iSpring тут — оверкилл.
Вместо этого: SQLite с профилями студентов + Claude Code для генерации материалов.
Что хранить про студента
Не оценки. Контекст.
- Сфера — маркетинг, продакт, HR, фрилансер
- Роль — руководитель, исполнитель, основатель
- Опыт с AI — от “первый раз вижу” до “использую каждый день”
- Цель на курс — автоматизировать рутину, создать продукт, сменить карьеру
- Идея проекта — что хотят построить к концу курса
Этого хватает для персонализации. Перед уроком прошу Claude сгенерировать примеры под каждого: маркетологу — про рекламные кампании, HR-у — про воронку найма.
Профиль важнее оценок
Миша — продакт из финтеха, хочет автоматизировать отчёты. Это полезнее, чем “средний балл 78%”.
Технически
Одна таблица. Текстовые поля. Без ORM.
CREATE TABLE students (
id INTEGER PRIMARY KEY,
name TEXT,
cohort_id INTEGER,
domain TEXT, -- сфера: маркетинг, HR, продукт
role TEXT, -- руководитель / исполнитель
ai_experience TEXT,
goal TEXT,
project_idea TEXT
);
Поверх — skill для Claude Code. Команда /lesson-prep достаёт данные студентов и генерирует материал.
Как работает skill
Skill — markdown-файл с инструкциями. Запускаю /lesson-prep, Claude получает контекст: данные студентов, тему, формат.
Что он делает:
- Генерирует примеры под проект каждого
- Подбирает сложность под уровень
- Создаёт стартовые промпты для практики
Ничего сложного. Но на Coursera такого нет — там все получают одинаковые примеры.
Что трекаю
Автопроверки домашек нет. На курсе по вайбкодингу студенты не пишут код — они дают промпты AI. Как это грейдить? Да никак.
Трекаю три вещи:
- Сдал / не сдал — бинарно, без баллов
- Активность — кто спрашивает, кто молчит
- Проект — на каком этапе
Аня не сдала вторую домашку — пишу в личку. Паша молчит третью неделю — спрашиваю, всё ли ок. Это работает лучше любого дашборда.
Где AI помогает
Персонализация материалов. Типичный запрос:
Сгенерируй практические задания по теме "API интеграции"
для студентов потока 8. Каждому — пример под его проект.
Профили в контексте.
Claude достаёт профили, генерирует 20 разных заданий. Тратит токены, экономит мне 2-3 часа подготовки.
Генерация стартовых промптов тоже хорошо работает. Студент говорит “хочу сделать бота для записи на маникюр” — запускаю skill, получаю промпт под его уровень.
Где AI не справляется
Оценка качества работы. LLM может сказать “код работает”. Но не скажет “этот промпт ведёт в тупик”.
Обратную связь даю сам. Смотрю проекты, комментирую подход. AI генерирует, я проверяю.
Про масштаб
До 30-40 человек — легко. Дальше не хватит времени на личную обратную связь.
И это нормально. 20 человек — сообщество, не конвейер. Мне не нужно 500 студентов. Нужны 20, которых знаю по имени.
Итого
Что работает:
- Профиль студента вместо оценок — знать контекст человека
- Бинарный трекинг — сдал/не сдал, без баллов
- LLM для персонализации — генерировать примеры под каждого
Сложные LMS — для Coursera. Для когорт в 20 человек хватает SQLite и умения писать в личку.
Источники
- LearnMate: LLM-Powered Personalized Learning Plans — исследование MIT про персонализацию через LLM
- LLMs in Personalized Learning: Systematic Review — обзор применения LLM в образовании
- Перспективы персонализированного обучения с ИИ — русскоязычный обзор трендов
- Тренды онлайн-образования 2025 — что меняется на рынке
Подписаться на обновления — @sereja_tech