Четыре дня — от описательной статистики до машинного обучения, от A/B тестов до когнитивных искажений Канемана. Пять преподавателей: Сычев, Волошин, Дагаев, Мехмуд, Кантор.
DDDM — не «анализировать дашборды», а принимать управленческие решения на основе данных. Разница: descriptive («что было») сам по себе ничего не решает. Решение — это predictive + prescriptive + умение отличить корреляцию от причинности.
Модуль строится вокруг 6 групповых кейсов — каждый на один конкретный инструмент: регрессия, классификация, A/B-тест, причинно-следственный вывод, ML-модель, поведенческие смещения. Не «теория, потом практика», а сразу работа руками на разных типах задач.
Descriptive statistics, distributions, hypothesis testing, linear & logistic regression.
«Что произошло». Отчёты, BI. База, но сама не решает.
«Что произойдёт». ML, regression, forecasts.
«Что делать». Optimization, simulation + ML.
AI-агенты с решениями в рамках политик.
Экономический смысл: среднее искажают выбросы (средний доход в России ≫ медианный). Медиана устойчивее. Std = разброс в тех же единицах. CV = безразмерный разброс, позволяет сравнивать риски разных величин (зарплаты vs курсы валют).
Normal (68-95-99.7 rule) — классическая гипотеза для «средних», центральная предельная теорема. Lognormal — доходы, цены (нельзя отрицательные). Power law — доли рынка, размеры городов, богатство. Poisson — редкие события (аварии, звонки в call-центр).
Экономический смысл: p-value — не вероятность того, что гипотеза верна. Это вероятность увидеть такие данные если H₀ верна. Маленький p → данные «странные» для H₀ → отвергаем. Type I (α) — ложная тревога. Type II (β) — пропущенная цель. Power = 1 − β.
Интерпретация: β₁ — на сколько изменится y при изменении x₁ на единицу, при прочих равных. R² — доля дисперсии y, объяснённая моделью. Важно: значимый коэффициент ≠ большой коэффициент ≠ причинная связь.
Для бинарных исходов (клиент купит или нет, кредит вернёт или нет). Коэффициент β₁ интерпретируется через odds ratio: exp(β₁) — во сколько раз меняются шансы (odds = P/(1−P)) при изменении x на 1.
Не X → Y, а Y → X. «Полиция приезжает на все ограбления» — и что?
Z влияет на оба. Мороженое → утопление? Оба растут летом.
Мы выбрали не случайную выборку. Самолёты с дырами от пуль в крыльях — но не в двигателях (Wald).
На больших данных всегда найдутся случайные корреляции. Spurious correlations.
Randomized Controlled Trial: случайно делим на treatment и control. Случайность нейтрализует confounders. Но RCT часто невозможен (этика, масштаб).
Регрессия (continuous y): linear, decision tree, random forest, gradient boosting (XGBoost, LightGBM). Классификация (categorical y): logistic, SVM, decision tree, ensemble methods. Метрики: регрессия — RMSE, MAE, R²; классификация — accuracy, precision, recall, F1, ROC-AUC.
Экономический смысл: precision — «из тех, кого назвали больными, реально больны»; recall — «из реально больных мы нашли». Для рака грудь: важнее recall (пропустить хуже, чем ложная тревога). Для спам-фильтра: precision (удалить важное письмо хуже, чем пропустить спам).
Clustering (k-means, hierarchical, DBSCAN) — сегментация клиентов без заранее заданных меток. Dimensionality reduction (PCA, t-SNE, UMAP) — сжатие сотен признаков в 2–3 интерпретируемые оси.
Модель, идеально подогнанная под train, плохо работает на test. Bias-variance trade-off: сложная модель = low bias, high variance. Решения: train/val/test split, cross-validation, regularization (L1 = Lasso, L2 = Ridge), early stopping.
SHAP values — вклад каждой feature в prediction. Работает для любых моделей. Стандарт де-факто для «объяснимого ML». LIME — локальная линейная аппроксимация. Business requirement: модель должна не только хорошо предсказывать, но и быть объяснимой — особенно для кредитных решений, HR, здравоохранения (регуляторы требуют).
Экономический смысл: чтобы заметить эффект 1% при стандартной девиации 10% — нужно 16 · 100 / 1 = 1 600 пользователей на вариант. Маленькие эффекты требуют много данных.
Peeking — смотрим каждый день и останавливаем когда «значимо». Увеличивает false positive rate в разы. Решение: последовательное тестирование (Bayesian или α-spending). Simpson's paradox — эффект в сегменте может быть противоположен эффекту в целом. Novelty effect — новое всегда работает первую неделю, потом эффект исчезает.
System 1 — быстрое, интуитивное, эмоциональное. Распознавание лиц, чтение короткого текста, оценка ситуации. System 2 — медленное, аналитическое, энергозатратное. Умножение в уме, сложные решения. По Kahneman, мы переоцениваем долю System 2 в своих решениях.
Ищем данные, подтверждающие нашу гипотезу. Игнорируем противоречащие.
Первое число, услышанное, влияет на последующие оценки. Стартовая цена в переговорах.
Оцениваем вероятность по лёгкости, с которой вспоминается пример. После авиакатастрофы боимся летать.
Потеря ощущается в 2× сильнее выгоды того же размера. Приводит к sunk cost fallacy.
85% менеджеров считают себя выше среднего. Планирование fallacy.
«Я так и знал, что это произойдёт». Искажает оценку прошлых решений.
4 уровня аналитики: Descriptive → Predictive → Prescriptive → Autonomous.
p-value — не вероятность гипотезы. Это вероятность данных если H₀ верна.
Correlation ≠ causation. 4 причины: reverse, confounder, selection, random.
RCT — золотой стандарт. DiD, RD, IV, PSM — квази-эксперименты.
Precision vs Recall. Для рака — recall. Для спама — precision.
Overfitting: train/val/test, CV, regularization (L1/L2).
SHAP — стандарт для объяснимости ML моделей.
Sample size ~ σ² / MDE². Маленький эффект → много данных.
System 1 (fast, intuitive) vs System 2 (slow, analytical). Переоцениваем System 2.
Loss aversion: потеря болит в 2× сильнее выгоды того же размера.