← Блог

Как трекать прогресс студентов на онлайн-курсе с помощью AI

Сережа Рис · 12 January 2026

llmонлайн-курсы

Веду курс по вайбкодингу. 20 человек, восьмой поток.

Везде продают LMS с дашбордами, грейдингом, аналитикой вовлечённости.

Мне не нужно. Нужно знать КТО студент, а не СКОЛЬКО баллов.

Почему не LMS

EdTech-платформы строятся под тысячи пользователей. Автопроверка тестов, алгоритмы рекомендаций, адаптивные траектории.

Но у меня 20 человек. Каждого знаю по имени. Каждому готовлю примеры под его проект. Moodle или iSpring тут — оверкилл.

Вместо этого: SQLite с профилями студентов + Claude Code для генерации материалов.

Что хранить про студента

Не оценки. Контекст.

Этого хватает для персонализации. Перед уроком прошу Claude сгенерировать примеры под каждого: маркетологу — про рекламные кампании, HR-у — про воронку найма.

Профиль важнее оценок

Миша — продакт из финтеха, хочет автоматизировать отчёты. Это полезнее, чем “средний балл 78%”.

Технически

Одна таблица. Текстовые поля. Без ORM.

CREATE TABLE students (
  id INTEGER PRIMARY KEY,
  name TEXT,
  cohort_id INTEGER,
  domain TEXT,      -- сфера: маркетинг, HR, продукт
  role TEXT,        -- руководитель / исполнитель
  ai_experience TEXT,
  goal TEXT,
  project_idea TEXT
);

Поверх — skill для Claude Code. Команда /lesson-prep достаёт данные студентов и генерирует материал.

Как работает skill

Skill — markdown-файл с инструкциями. Запускаю /lesson-prep, Claude получает контекст: данные студентов, тему, формат.

Что он делает:

Ничего сложного. Но на Coursera такого нет — там все получают одинаковые примеры.

Что трекаю

Автопроверки домашек нет. На курсе по вайбкодингу студенты не пишут код — они дают промпты AI. Как это грейдить? Да никак.

Трекаю три вещи:

Аня не сдала вторую домашку — пишу в личку. Паша молчит третью неделю — спрашиваю, всё ли ок. Это работает лучше любого дашборда.

Оценки создают иллюзию контроля “Средний балл 85%” ничего не говорит о понимании материала. Личный разговор — говорит.

Где AI помогает

Персонализация материалов. Типичный запрос:

Сгенерируй практические задания по теме "API интеграции"
для студентов потока 8. Каждому — пример под его проект.
Профили в контексте.

Claude достаёт профили, генерирует 20 разных заданий. Тратит токены, экономит мне 2-3 часа подготовки.

Генерация стартовых промптов тоже хорошо работает. Студент говорит “хочу сделать бота для записи на маникюр” — запускаю skill, получаю промпт под его уровень.

Где AI не справляется

Оценка качества работы. LLM может сказать “код работает”. Но не скажет “этот промпт ведёт в тупик”.

Обратную связь даю сам. Смотрю проекты, комментирую подход. AI генерирует, я проверяю.

Про масштаб

До 30-40 человек — легко. Дальше не хватит времени на личную обратную связь.

И это нормально. 20 человек — сообщество, не конвейер. Мне не нужно 500 студентов. Нужны 20, которых знаю по имени.

Итого

Что работает:

  1. Профиль студента вместо оценок — знать контекст человека
  2. Бинарный трекинг — сдал/не сдал, без баллов
  3. LLM для персонализации — генерировать примеры под каждого

Сложные LMS — для Coursera. Для когорт в 20 человек хватает SQLite и умения писать в личку.


Источники

Подписаться на обновления — @sereja_tech