Кросс формула: что это такое, отличия, преимущества, нюансы тренировки

Кросс формула: что это такое, отличия, преимущества, нюансы тренировки

alexxlab 20.07.2021

Содержание

Формула любви. Онлайн-коучинг.

Данный курс необходимо проходить в комплексе с онлайн-марафоном «Любовь по правилам и без».

Курс будет длиться 4 недели. Каждую среду с 20:00 до 22:00 по мск будут проходить вебинары, записи которых будут доступны в личном кабинете клуба Кросс каждому участнику.

Вебинары будут проходить на специальной платформе для проведения онлайн-конференций. Для участия нужно будет установить программу, она бесплатная.

Zoom — это сервис для проведения видеоконференций. Разница между Zoom и стандартными вебинарными комнатами заключается в том, что вы будете видеть и слышать других участников и ведущего, а другие участники будут видеть и слышать вас.

После вебинаров участники будут получать задания на отработку и закрепление полученной информации.

◯ 1 НЕДЕЛЯ

Дата проведения вебинара: 17 июня с 20:00 до 22:00 по мск.

Темы первой недели:

○ Введение в коучинг. Общие правила работы.

○ Для чего вам нужны отношения? Выявление подходящего типа отношений.

○ Как обрести психологическую готовность к отношениям.

○ Аудит прошлых отношений. Пересмотр прошлого опыта отношений. Выявление общих закономерностей.

○ Как отпустить прошлые отношения и сконцентрироваться на будущем.

○ Выявление собственной ценности и значимости. Работа с негативными установками.

◯ 2 НЕДЕЛЯ

Дата проведения вебинара: 24 июня с 20:00 до 22:00 по мск.

Темы второй недели:

○ Места знакомств. Где искать будущего партнера?

○ Системный подход к личной жизни.

○ Моя презентация себя. Кто я, чего я хочу, что я ищу.

○ Правила общения и поведения на этапе превичного знакомства.

○ Самонастройка и способы повышения уверенности в себе.

◯ 3 НЕДЕЛЯ

Дата проведения вебинара: 1 июля с 20:00 до 22:00 по мск.

Темы третей недели:

○ Диагностика партнера. Как понять, подходит вам человек или нет?

○ Правила общения на первом свидании. Анализ общения. Углубленная теория коммуникации.

○ Выбор партнера. Критерии и правила отбора.

○ Создание модели будущих отношений.

◯ 4 НЕДЕЛЯ

Дата проведения вебинара: 8 июля с 20:00 до 22:00 по мск.

Темы четвертой недели:

○ Подведение итогов.

○ Строим сразу те отношения, которые хотим. Правила общения на разных этапах отношений.

○ План постройки общей жизни.

○ Завершение курса. Ответы на оставшиеся вопросы участников.

Метрики в задачах машинного обучения / Блог компании Open Data Science / Хабр

Привет, Хабр!

В задачах машинного обучения для оценки качества моделей и сравнения различных алгоритмов используются метрики, а их выбор и анализ — непременная часть работы датасатаниста.

В этой статье мы рассмотрим некоторые критерии качества в задачах классификации, обсудим, что является важным при выборе метрики и что может пойти не так.

Для демонстрации полезных функций sklearn и наглядного представления метрик мы будем использовать датасет по оттоку клиентов телеком-оператора.

Загрузим необходимые библиотеки и посмотрим на данные

import pandas as pd
import matplotlib.pyplot as plt
from matplotlib.pylab import rc, plot
import seaborn as sns
from sklearn.preprocessing import LabelEncoder, OneHotEncoder
from sklearn.model_selection import cross_val_score
from sklearn.linear_model import LogisticRegression
from sklearn.ensemble import RandomForestClassifier, GradientBoostingClassifier
from sklearn.metrics import precision_recall_curve, classification_report
from sklearn.model_selection import train_test_split

df = pd.read_csv('../../data/telecom_churn.csv')
df.head(5)

Предобработка данных

# Сделаем маппинг бинарных колонок 
# и закодируем dummy-кодированием штат (для простоты, лучше не делать так для деревянных моделей)

d = {'Yes' : 1, 'No' : 0}

df['International plan'] = df['International plan'].map(d)
df['Voice mail plan'] = df['Voice mail plan'].map(d)
df['Churn'] = df['Churn'].astype('int64')

le = LabelEncoder()
df['State'] = le.fit_transform(df['State'])

ohe = OneHotEncoder(sparse=False)

encoded_state = ohe.fit_transform(df['State'].values.reshape(-1, 1))
tmp = pd.DataFrame(encoded_state,  
                   columns=['state ' + str(i) for i in range(encoded_state.shape[1])])
df = pd.concat([df, tmp], axis=1)

Accuracy, precision и recall

Перед переходом к самим метрикам необходимо ввести важную концепцию для описания этих метрик в терминах ошибок классификации — confusion matrix (матрица ошибок).

Допустим, что у нас есть два класса и алгоритм, предсказывающий принадлежность каждого объекта одному из классов, тогда матрица ошибок классификации будет выглядеть следующим образом:




True Positive (TP) False Positive (FP)
False Negative (FN) True Negative (TN)

Здесь — это ответ алгоритма на объекте, а — истинная метка класса на этом объекте.

Таким образом, ошибки классификации бывают двух видов: False Negative (FN) и False Positive (FP).

Обучение алгоритма и построение матрицы ошибок

X = df.drop('Churn', axis=1)
y = df['Churn']

# Делим выборку на train и test, все метрики будем оценивать на тестовом датасете

X_train, X_test, y_train, y_test = train_test_split(X, y, stratify=y,  test_size=0.33, random_state=42)

# Обучаем ставшую родной логистическую регрессию

lr = LogisticRegression(random_state=42)
lr.fit(X_train, y_train)

# Воспользуемся функцией построения матрицы ошибок из документации sklearn

def plot_confusion_matrix(cm, classes,
                          normalize=False,
                          title='Confusion matrix',
                          cmap=plt.cm.Blues):
    """
    This function prints and plots the confusion matrix.
    Normalization can be applied by setting `normalize=True`.
    """
    plt.imshow(cm, interpolation='nearest', cmap=cmap)
    plt.title(title)
    plt.colorbar()
    tick_marks = np.arange(len(classes))
    plt.xticks(tick_marks, classes, rotation=45)
    plt.yticks(tick_marks, classes)

    if normalize:
        cm = cm.astype('float') / cm.sum(axis=1)[:, np.newaxis]
        print("Normalized confusion matrix")
    else:
        print('Confusion matrix, without normalization')

    print(cm)

    thresh = cm.max() / 2.
    for i, j in itertools.product(range(cm.shape[0]), range(cm.shape[1])):
        plt.text(j, i, cm[i, j],
                 horizontalalignment="center",
                 color="white" if cm[i, j] > thresh else "black")

    plt.tight_layout()
    plt.ylabel('True label')
    plt.xlabel('Predicted label')

font = {'size' : 15}

plt.rc('font', **font)

cnf_matrix = confusion_matrix(y_test, lr.predict(X_test))
plt.figure(figsize=(10, 8))
plot_confusion_matrix(cnf_matrix, classes=['Non-churned', 'Churned'],
                      title='Confusion matrix')
plt.savefig("conf_matrix.png")
plt.show()
Accuracy

Интуитивно понятной, очевидной и почти неиспользуемой метрикой является accuracy — доля правильных ответов алгоритма:

Эта метрика бесполезна в задачах с неравными классами, и это легко показать на примере.

Допустим, мы хотим оценить работу спам-фильтра почты. У нас есть 100 не-спам писем, 90 из которых наш классификатор определил верно (True Negative = 90, False Positive = 10), и 10 спам-писем, 5 из которых классификатор также определил верно (True Positive = 5, False Negative = 5).

Тогда accuracy:

Однако если мы просто будем предсказывать все письма как не-спам, то получим более высокую accuracy:

При этом, наша модель совершенно не обладает никакой предсказательной силой, так как изначально мы хотели определять письма со спамом. Преодолеть это нам поможет переход с общей для всех классов метрики к отдельным показателям качества классов.

Precision, recall и F-мера

Для оценки качества работы алгоритма на каждом из классов по отдельности введем метрики precision (точность) и recall (полнота).

Precision можно интерпретировать как долю объектов, названных классификатором положительными и при этом действительно являющимися положительными, а recall показывает, какую долю объектов положительного класса из всех объектов положительного класса нашел алгоритм.

Именно введение precision не позволяет нам записывать все объекты в один класс, так как в этом случае мы получаем рост уровня False Positive. Recall демонстрирует способность алгоритма обнаруживать данный класс вообще, а precision — способность отличать этот класс от других классов.

Как мы отмечали ранее, ошибки классификации бывают двух видов: False Positive и False Negative. В статистике первый вид ошибок называют ошибкой I-го рода, а второй — ошибкой II-го рода. В нашей задаче по определению оттока абонентов, ошибкой первого рода будет принятие лояльного абонента за уходящего, так как наша нулевая гипотеза состоит в том, что никто из абонентов не уходит, а мы эту гипотезу отвергаем. Соответственно, ошибкой второго рода будет являться «пропуск» уходящего абонента и ошибочное принятие нулевой гипотезы.

Precision и recall не зависят, в отличие от accuracy, от соотношения классов и потому применимы в условиях несбалансированных выборок.

Часто в реальной практике стоит задача найти оптимальный (для заказчика) баланс между этими двумя метриками. Классическим примером является задача определения оттока клиентов.

Очевидно, что мы не можем находить всех уходящих в отток клиентов и только их. Но, определив стратегию и ресурс для удержания клиентов, мы можем подобрать нужные пороги по precision и recall. Например, можно сосредоточиться на удержании только высокодоходных клиентов или тех, кто уйдет с большей вероятностью, так как мы ограничены в ресурсах колл-центра.

Обычно при оптимизации гиперпараметров алгоритма (например, в случае перебора по сетке GridSearchCV ) используется одна метрика, улучшение которой мы и ожидаем увидеть на тестовой выборке.

Существует несколько различных способов объединить precision и recall в агрегированный критерий качества. F-мера (в общем случае ) — среднее гармоническое precision и recall :

в данном случае определяет вес точности в метрике, и при это среднее гармоническое (с множителем 2, чтобы в случае precision = 1 и recall = 1 иметь )

F-мера достигает максимума при полноте и точности, равными единице, и близка к нулю, если один из аргументов близок к нулю.

В sklearn есть удобная функция _metrics.classificationreport, возвращающая recall, precision и F-меру для каждого из классов, а также количество экземпляров каждого класса.

report = classification_report(y_test, lr.predict(X_test), target_names=['Non-churned', 'Churned'])
print(report)





class precision recall f1-score support
Non-churned 0.88 0.97 0.93 941
Churned 0.60 0.25 0.35 159
avg / total 0.84 0.87 0.84 1100

Здесь необходимо отметить, что в случае задач с несбалансированными классами, которые превалируют в реальной практике, часто приходится прибегать к техникам искусственной модификации датасета для выравнивания соотношения классов. Их существует много, и мы не будем их касаться, здесь можно посмотреть некоторые методы и выбрать подходящий для вашей задачи.

AUC-ROC и AUC-PR

При конвертации вещественного ответа алгоритма (как правило, вероятности принадлежности к классу, отдельно см. SVM) в бинарную метку, мы должны выбрать какой-либо порог, при котором 0 становится 1. Естественным и близким кажется порог, равный 0.5, но он не всегда оказывается оптимальным, например, при вышеупомянутом отсутствии баланса классов.

Одним из способов оценить модель в целом, не привязываясь к конкретному порогу, является AUC-ROC (или ROC AUC) — площадь (Area Under Curve) под кривой ошибок (Receiver Operating Characteristic curve ). Данная кривая представляет из себя линию от (0,0) до (1,1) в координатах True Positive Rate (TPR) и False Positive Rate (FPR):

TPR нам уже известна, это полнота, а FPR показывает, какую долю из объектов negative класса алгоритм предсказал неверно. В идеальном случае, когда классификатор не делает ошибок (FPR = 0, TPR = 1) мы получим площадь под кривой, равную единице; в противном случае, когда классификатор случайно выдает вероятности классов, AUC-ROC будет стремиться к 0.5, так как классификатор будет выдавать одинаковое количество TP и FP.

Каждая точка на графике соответствует выбору некоторого порога. Площадь под кривой в данном случае показывает качество алгоритма (больше — лучше), кроме этого, важной является крутизна самой кривой — мы хотим максимизировать TPR, минимизируя FPR, а значит, наша кривая в идеале должна стремиться к точке (0,1).

Код отрисовки ROC-кривой

sns.set(font_scale=1.5)
sns.set_color_codes("muted")

plt.figure(figsize=(10, 8))
fpr, tpr, thresholds = roc_curve(y_test, lr.predict_proba(X_test)[:,1], pos_label=1)
lw = 2
plt.plot(fpr, tpr, lw=lw, label='ROC curve ')
plt.plot([0, 1], [0, 1])
plt.xlim([0.0, 1.0])
plt.ylim([0.0, 1.05])
plt.xlabel('False Positive Rate')
plt.ylabel('True Positive Rate')
plt.title('ROC curve')
plt.savefig("ROC.png")
plt.show()

Критерий AUC-ROC устойчив к несбалансированным классам (спойлер: увы, не всё так однозначно) и может быть интерпретирован как вероятность того, что случайно выбранный positive объект будет проранжирован классификатором выше (будет иметь более высокую вероятность быть positive), чем случайно выбранный negative объект.

Рассмотрим следующую задачу: нам необходимо выбрать 100 релевантных документов из 1 миллиона документов. Мы намашинлернили два алгоритма:

  • Алгоритм 1 возвращает 100 документов, 90 из которых релевантны. Таким образом,

  • Алгоритм 2 возвращает 2000 документов, 90 из которых релевантны. Таким образом,

Скорее всего, мы бы выбрали первый алгоритм, который выдает очень мало False Positive на фоне своего конкурента. Но разница в False Positive Rate между этими двумя алгоритмами крайне мала — всего 0.0019. Это является следствием того, что AUC-ROC измеряет долю False Positive относительно True Negative и в задачах, где нам не так важен второй (больший) класс, может давать не совсем адекватную картину при сравнении алгоритмов.

Для того чтобы поправить положение, вернемся к полноте и точности :

Здесь уже заметна существенная разница между двумя алгоритмами — 0.855 в точности!

Precision и recall также используют для построения кривой и, аналогично AUC-ROC, находят площадь под ней.

Здесь можно отметить, что на маленьких датасетах площадь под PR-кривой может быть чересчур оптимистична, потому как вычисляется по методу трапеций, но обычно в таких задачах данных достаточно. За подробностями о взаимоотношениях AUC-ROC и AUC-PR можно обратиться сюда.

Logistic Loss

Особняком стоит логистическая функция потерь, определяемая как:

здесь — это ответ алгоритма на -ом объекте, — истинная метка класса на -ом объекте, а размер выборки.

Подробно про математическую интерпретацию логистической функции потерь уже написано в рамках поста про линейные модели.

Данная метрика нечасто выступает в бизнес-требованиях, но часто — в задачах на kaggle.

Интуитивно можно представить минимизацию logloss как задачу максимизации accuracy путем штрафа за неверные предсказания. Однако необходимо отметить, что logloss крайне сильно штрафует за уверенность классификатора в неверном ответе.

Рассмотрим пример:

def logloss_crutch(y_true, y_pred, eps=1e-15):

    return - (y_true * np.log(y_pred) + (1 - y_true) * np.log(1 - y_pred))

print('Logloss при неуверенной классификации %f' % logloss_crutch(1, 0.5))
>> Logloss при неуверенной классификации 0.693147

print('Logloss при уверенной классификации и верном ответе %f' % logloss_crutch(1, 0.9))
>> Logloss при уверенной классификации и верном ответе 0.105361

print('Logloss при уверенной классификации и НЕверном ответе %f' % logloss_crutch(1, 0.1))
>> Logloss при уверенной классификации и НЕверном ответе 2.302585

Отметим, как драматически выросла logloss при неверном ответе и уверенной классификации!

Следовательно, ошибка на одном объекте может дать существенное ухудшение общей ошибки на выборке. Такие объекты часто бывают выбросами, которые нужно не забывать фильтровать или рассматривать отдельно.

Всё становится на свои места, если нарисовать график logloss:

Видно, что чем ближе к нулю ответ алгоритма при ground truth = 1, тем выше значение ошибки и круче растёт кривая.

Подытожим:

  • В случае многоклассовой классификации нужно внимательно следить за метриками каждого из классов и следовать логике решения задачи, а не оптимизации метрики
  • В случае неравных классов нужно подбирать баланс классов для обучения и метрику, которая будет корректно отражать качество классификации
  • Выбор метрики нужно делать с фокусом на предметную область, предварительно обрабатывая данные и, возможно, сегментируя (как в случае с делением на богатых и бедных клиентов)

Полезные ссылки

  1. Курс Евгения Соколова: Семинар по выбору моделей (там есть информация по метрикам задач регрессии)
  2. Задачки на AUC-ROC от А.Г. Дьяконова
  3. Дополнительно о других метриках можно почитать на kaggle. К описанию каждой метрики добавлена ссылка на соревнования, где она использовалась
  4. Презентация Богдана Мельника aka ld86 про обучение на несбалансированных выборках

Благодарности

Спасибо mephistopheies и madrugado за помощь в подготовке статьи.

Что такое кросс: определение, особенности, советы

Кроссовый бег — излюбленное занятие многих людей. Его популярность объясняется тем, что не требуются специальные условия или экипировка: достаточно удобной одежды и тропинки в парке. Каждый может тренироваться самостоятельно, выбрав подходящее для себя время.

Что такое кросс?

Кросс — это длительный бег по пересеченной местности. Наличие небольших естественных преград, спусков и подъемов на трассе является его отличительной особенностью. Из-за более сложных условий кросс считается одним из лучших способов подготовки спортсменов, поскольку приучает реагировать на постоянно меняющиеся условия. Также он прекрасно развивает общую выносливость: оптимальная продолжительность тренировки составляет 60-90 мин.

Что такое кросс

Как начать заниматься

Не стоит с самого начала использовать на трассе большое количество спусков и подъемов. Первые недели можно бегать по «гладкому» маршруту, а потом постепенно добавлять новые элементы. Это позволит легко адаптироваться к новой нагрузке, а также не даст переутомиться.

Неподготовленный человек вряд ли сразу пробежит 1,5 часа, и это нормально. На первых порах пробежка может занимать 20-25 мин — мини-кросс. Это время нужно постепенно увеличивать и доводить до полноценной тренировки. Не стоит гнать себя – бежать нужно в комфортном темпе.

Обязательно нужно выполнять разминку перед тренировкой, а после — заминку и упражнения на растяжку. Это укрепит и разовьет мышцы, предупредит травмы.

Если есть желание принять участие в соревнованиях и пробежать легкоатлетический кросс, то заниматься нужно постоянно и в любую погоду. Но следует помнить об осторожности и аккуратности, т. к. на влажной земле легко поскользнуться. Также нужно одеваться по погоде. Бег в любых условиях — не только отличный способ закаливания, но и прекрасный метод повышения выносливости. Довольно сложно представить, что такое кросс под дождем, но к этому нужно быть готовым, поскольку состязания из-за плохой погоды не отменяют.

легкоатлетический кросс

Несколько замечаний по технике бега

С самого начала нужно приучать себя бегать правильно. Верная техника оптимизирует нагрузку на мышцы и суставы, сделает занятия более результативными и позволит избежать травм.

Корпус и голова держатся прямо, руки согнуты под углом 90-120 градусов, кисти неплотно сжаты, плечи расслаблены. Свободная поза снижает усталость, экономит силы. Основную беговую нагрузку берет на себя бедро, а голень и ступню в фазе полета следует расслаблять. Нога на грунт опускается упруго, сверху вниз. Стопа напрягается только в момент, когда касается грунта. Ставить ногу лучше на всю ступню сразу, а не на пятку.

При подъеме используется немного другая техника: в горку шаг становится короче, корпус немного наклоняется вперед, стопа ставится на носки.

мини кросс

Также нужно следить за своим дыханием и самочувствием.

Что такое кросс для организма?

Бег – это прекрасное средство тренировки всего организма, задействующее все основные системы.

  1. Хорошую нагрузку получает опорно-двигательный аппарат: используются все мышцы ног, расшевеливаются суставы.
  2. При физических упражнениях включается в работу позвоночник. Активность служит профилактикой многих заболеваний ОДА.
  3. Тренируется сердечно-сосудистая система, ускоряется кровообращение.
  4. Учащается и углубляется дыхание, в результате систематических занятий легкие начинают работать более эффективно, увеличивается их жизненная емкость.
  5. Как и при другой активной физической работе, повышается выделение эндорфинов – «гормонов счастья».
  6. За счет повышенного потоотделения из организма выводятся шлаки.
  7. При беге сжигается большое количество калорий.

Кроме того, спортсмен не ограничен в выборе места для занятий. Во время тренировки можно посмотреть красивые окрестности и получить массу впечатлений. А потом с восхищением рассказывать друзьям, что такое кросс, и звать их с собой на пробежку. Тренировка – это отличный повод для общения.

Логистическая регрессия и ROC-анализ — математический аппарат

Введение

Логистическая регрессия — полезный классический инструмент для решения задачи регрессии и классификации. ROC-анализ — аппарат для анализа качества моделей. Оба алгоритма активно используются для построения моделей в медицине и проведения клинических исследований.

Логистическая регрессия получила распространение в скоринге для расчета рейтинга заемщиков и управления кредитными рисками. Поэтому, несмотря на свое «происхождение» из статистики, логистическую регрессию и ROC-анализ почти всегда можно увидеть в наборе Data Mining алгоритмов.

Логистическая регрессия

Логистическая регрессия — это разновидность множественной регрессии, общее назначение которой состоит в анализе связи между несколькими независимыми переменными (называемыми также регрессорами или предикторами) и зависимой переменной. Бинарная логистическая регрессия применяется в случае, когда зависимая переменная является бинарной (т.е. может принимать только два значения). С помощью логистической регрессии можно оценивать вероятность того, что событие наступит для конкретного испытуемого (больной/здоровый, возврат кредита/дефолт и т.д.).

Все регрессионные модели могут быть записаны в виде формулы:

y = F (x_1,\, x_2, \,\dots, \, x_n)

В множественной линейной регрессии предполагается, что зависимая переменная является линейной функцией независимых переменных, т.е.:

y = a\,+\,b_1\,x_1\,+\,b_2\,x_2\,+\,\dots\,+\,b_n\,x_n

Можно ли ее использовать для задачи оценки вероятности исхода события? Да, можно, вычислив стандартные коэффициенты регрессии. Например, если рассматривается исход по займу, задается переменная y со значениями 1 и 0, где 1 означает, что соответствующий заемщик расплатился по кредиту, а 0, что имел место дефолт.

Однако здесь возникает проблема: множественная регрессия не «знает», что переменная отклика бинарна по своей природе. Это неизбежно приведет к модели с предсказываемыми значениями большими 1 и меньшими 0. Но такие значения вообще не допустимы для первоначальной задачи. Таким образом, множественная регрессия просто игнорирует ограничения на диапазон значений для y.

Для решения проблемы задача регрессии может быть сформулирована иначе: вместо предсказания бинарной переменной, мы предсказываем непрерывную переменную со значениями на отрезке [0,1] при любых значениях независимых переменных. Это достигается применением следующего регрессионного уравнения (логит-преобразование):

P = \frac{1}{1+\,e^{-y}}

где P — вероятность того, что произойдет интересующее событие e — основание натуральных логарифмов 2,71…; y — стандартное уравнение регрессии.

Зависимость, связывающая вероятность события и величину y, показана на следующем графике (рис. 1):

Рис. 1 — Логистическая кривая

Поясним необходимость преобразования. Предположим, что мы рассуждаем о нашей зависимой переменной в терминах основной вероятности P, лежащей между 0 и 1. Тогда преобразуем эту вероятность P:

P’ = \log_e \Bigl(\frac{P}{1-P}\Bigr)

Это преобразование обычно называют логистическим или логит-преобразованием. Теоретически P’ может принимать любое значение. Поскольку логистическое преобразование решает проблему об ограничении на 0-1 границы для первоначальной зависимой переменной (вероятности), то эти преобразованные значения можно использовать в обычном линейном регрессионном уравнении. А именно, если произвести логистическое преобразование обеих частей описанного выше уравнения, мы получим стандартную модель линейной регрессии.

Существует несколько способов нахождения коэффициентов логистической регрессии. На практике часто используют метод максимального правдоподобия. Он применяется в статистике для получения оценок параметров генеральной совокупности по данным выборки. Основу метода составляет функция правдоподобия (likehood function), выражающая плотность вероятности (вероятность) совместного появления результатов выборки

L\,(Y_1,\,Y_2,\,\dots,\,Y_k;\,\theta) = p\,(Y_1;\, \theta)\cdot\dots\cdotp\,p\,(Y_k;\,\theta)

Согласно методу максимального правдоподобия в качестве оценки неизвестного параметра принимается такое значение \theta=\theta(Y_1,…,Y_k), которое максимизирует функцию L.

Нахождение оценки упрощается, если максимизировать не саму функцию L, а натуральный логарифм ln(L), поскольку максимум обеих функций достигается при одном и том же значении \theta:

L\,*\,(Y;\,\theta) = \ln\,(L\,(Y;\,\theta)\,) \rightarrow \max

В случае бинарной независимой переменной, которую мы имеем в логистической регрессии, выкладки можно продолжить следующим образом. Обозначим через P_i вероятность появления единицы: P_i=Prob(Y_i=1). Эта вероятность будет зависеть от X_iW, где X_i — строка матрицы регрессоров, W — вектор коэффициентов регрессии:

P_i = F\,(X_i W),\, F(z) = \frac{1}{1+\,e^{-z}}

Логарифмическая функция правдоподобия равна:

L^* = \sum_{i \epsilon\ I_1}ln{P_i(W)} + \sum_{i \epsilon\ I_0}ln{(1-P_i(W))} = \sum_{i=1}^{k} [Y_i \ln {P_i (W)}+(1-Y_i)\ln {(1 — P_i(W))}]

где I_0, I_1— множества наблюдений, для которых Y_i=0 и Y_i=1 соответственно.

Можно показать, что градиент g и гессиан H функции правдоподобия равны:

g = \sum_i (Y_i\,-\,P_i)\,X_i

 

H=-\sum_i P_i\,(1\,-\,P_i)\,X_i^T\,X_i\,\leq 0

Гессиан всюду отрицательно определенный, поэтому логарифмическая функция правдоподобия всюду вогнута. Для поиска максимума можно использовать метод Ньютона, который здесь будет всегда сходиться (выполнено условие сходимости метода):

W_{t+1}\,=\,W_t\,-\,(H\,(W_t))^{-1}\,g_t(W_t)\,=\,W_t\,-\,\Delta W_t

Логистическую регрессию можно представить в виде однослойной нейронной сети с сигмоидальной функцией активации, веса которой есть коэффициенты логистической регрессии, а вес поляризации — константа регрессионного уравнения (рис. 2).

Рис. 2 — Представление логистической регрессии в виде нейронной сети

Однослойная нейронная сеть может успешно решить лишь задачу линейной сепарации. Поэтому возможности по моделированию нелинейных зависимостей у логистической регрессии отсутствуют. Однако для оценки качества модели логистической регрессии существует эффективный инструмент ROC-анализа, что является несомненным ее преимуществом.

Для расчета коэффициентов логистической регрессии можно применять любые градиентные методы: метод сопряженных градиентов, методы переменной метрики и другие.

ROC-анализ

ROC-кривая (Receiver Operator Characteristic) — кривая, которая наиболее часто используется для представления результатов бинарной классификации в машинном обучении. Название пришло из систем обработки сигналов. Поскольку классов два, один из них называется классом с положительными исходами, второй — с отрицательными исходами. ROC-кривая показывает зависимость количества верно классифицированных положительных примеров от количества неверно классифицированных отрицательных примеров.

В терминологии ROC-анализа первые называются истинно положительным, вторые — ложно отрицательным множеством. При этом предполагается, что у классификатора имеется некоторый параметр, варьируя который, мы будем получать то или иное разбиение на два класса. Этот параметр часто называют порогом, или точкой отсечения (cut-off value). В зависимости от него будут получаться различные величины ошибок I и II рода.

В логистической регрессии порог отсечения изменяется от 0 до 1 — это и есть расчетное значение уравнения регрессии. Будем называть его рейтингом.

Для понимания сути ошибок I и II рода рассмотрим четырехпольную таблицу сопряженности (confusion matrix), которая строится на основе результатов классификации моделью и фактической (объективной) принадлежностью примеров к классам.

  • TP (True Positives) — верно классифицированные положительные примеры (так называемые истинно положительные случаи).
  • TN (True Negatives) — верно классифицированные отрицательные примеры (истинно отрицательные случаи).
  • FN (False Negatives) — положительные примеры, классифицированные как отрицательные (ошибка I рода). Это так называемый «ложный пропуск» — когда интересующее нас событие ошибочно не обнаруживается (ложно отрицательные примеры).
  • FP (False Positives) — отрицательные примеры, классифицированные как положительные (ошибка II рода). Это ложное обнаружение, т.к. при отсутствии события ошибочно выносится решение о его присутствии (ложно положительные случаи).

Что является положительным событием, а что — отрицательным, зависит от конкретной задачи. Например, если мы прогнозируем вероятность наличия заболевания, то положительным исходом будет класс «Больной пациент», отрицательным — «Здоровый пациент». И наоборот, если мы хотим определить вероятность того, что человек здоров, то положительным исходом будет класс «Здоровый пациент», и так далее.

При анализе чаще оперируют не абсолютными показателями, а относительными — долями (rates), выраженными в процентах:

  • Доля истинно положительных примеров (True Positives Rate): TPR = \frac{TP}{TP\,+\,FN}\,\cdot\,100 \,\%
  • Доля ложно положительных примеров (False Positives Rate): FPR = \frac{FP}{TN\,+\,FP}\,\cdot\,100 \,\%

Введем еще два определения: чувствительность и специфичность модели. Ими определяется объективная ценность любого бинарного классификатора.

Чувствительность (Sensitivity) — это и есть доля истинно положительных случаев:

S_e = TPR = \frac{TP}{TP\,+\,FN}\,\cdot\,100 \,\%

Специфичность (Specificity) — доля истинно отрицательных случаев, которые были правильно идентифицированы моделью:

S_p = \frac{TN}{TN\,+\,FP}\,\cdot\,100 \,\%

Заметим, что FPR=100-Sp

Попытаемся разобраться в этих определениях.

Модель с высокой чувствительностью часто дает истинный результат при наличии положительного исхода (обнаруживает положительные примеры). Наоборот, модель с высокой специфичностью чаще дает истинный результат при наличии отрицательного исхода (обнаруживает отрицательные примеры). Если рассуждать в терминах медицины — задачи диагностики заболевания, где модель классификации пациентов на больных и здоровых называется диагностическим тестом, то получится следующее:

  • Чувствительный диагностический тест проявляется в гипердиагностике — максимальном предотвращении пропуска больных.
  • Специфичный диагностический тест диагностирует только доподлинно больных. Это важно в случае, когда, например, лечение больного связано с серьезными побочными эффектами и гипердиагностика пациентов не желательна.

ROC-кривая получается следующим образом:

  • Для каждого значения порога отсечения, которое меняется от 0 до 1 с шагом d_x (например, 0,01) рассчитываются значения чувствительности Se и специфичности Sp. В качестве альтернативы порогом может являться каждое последующее значение примера в выборке.

  • Строится график зависимости: по оси Y откладывается чувствительность Se, по оси X — FPR=100-Sp — доля ложно положительных случаев.

Канонический алгоритм построения ROC-кривой

Входы: L — множество примеров f[i] — рейтинг, полученный моделью, или вероятность того, что i-й пример имеет положительный исход; min и max — минимальное и максимальное значения, возвращаемые f; d_x — шаг; P и N — количество положительных и отрицательных примеров соответственно.

  1. t=min
  2. повторять
  3.      FP=TP=0
  4.      для всех примеров i принадлежит L {
  5.           если f[i]>=t тогда // этот пример находится за порогом
  6.                если i положительный пример тогда
  7.                     { TP=TP+1 }
  8.           иначе // это отрицательный пример
  9.                { FP=FP+1 }
  10.      }
  11.      Se=TP/P*100
  12.      point=FP/N // расчет (100 минус Sp)
  13.      Добавить точку (point, Se) в ROC-кривую
  14.      t=t+d_x
  15.  пока (t>max)

В результате вырисовывается некоторая кривая (рис. 3).

Рис. 3 — ROC-кривая

График часто дополняют прямой y=x.

Заметим, что имеется более экономичный способ расчета точек ROC-кривой, чем тот, который приводился выше, т.к. его вычислительная сложность нелинейная и равна O(n^2): для каждого порога необходимо «пробегать» по записям и каждый раз рассчитывать TP и FP. Если же двигаться вниз по набору данных, отсортированному по убыванию выходного поля классификатора (рейтингу), то можно за один проход вычислить значения всех точек ROC-кривой, последовательно обновляя значения TP и FP.

Для идеального классификатора график ROC-кривой проходит через верхний левый угол, где доля истинно положительных случаев составляет 100% или 1,0 (идеальная чувствительность), а доля ложно положительных примеров равна нулю. Поэтому чем ближе кривая к верхнему левому углу, тем выше предсказательная способность модели. Наоборот, чем меньше изгиб кривой и чем ближе она расположена к диагональной прямой, тем менее эффективна модель. Диагональная линия соответствует «бесполезному» классификатору, т.е. полной неразличимости двух классов.

При визуальной оценке ROC-кривых расположение их относительно друг друга указывает на их сравнительную эффективность. Кривая, расположенная выше и левее, свидетельствует о большей предсказательной способности модели. Так, на рис. 4 две ROC-кривые совмещены на одном графике. Видно, что модель «A» лучше.

Рис. 4 — Сравнение ROC-кривых

Визуальное сравнение кривых ROC не всегда позволяет выявить наиболее эффективную модель. Своеобразным методом сравнения ROC-кривых является оценка площади под кривыми. Теоретически она изменяется от 0 до 1,0, но, поскольку модель всегда характеризуются кривой, расположенной выше положительной диагонали, то обычно говорят об изменениях от 0,5 («бесполезный» классификатор) до 1,0 («идеальная» модель).

Эта оценка может быть получена непосредственно вычислением площади под многогранником, ограниченным справа и снизу осями координат и слева вверху — экспериментально полученными точками (рис. 5). Численный показатель площади под кривой называется AUC (Area Under Curve). Вычислить его можно, например, с помощью численного метода трапеций:

AUC = \int f(x)\,dx = \sum_i \Bigl[ \frac{X_{i+1}\,+\,X_i}{2}\Bigr]\,\cdot \,(Y_{i+1}\,-\, Y_i)

Рис. 5 — Площадь под ROC-кривой

С большими допущениями можно считать, что чем больше показатель AUC, тем лучшей прогностической силой обладает модель. Однако следует знать, что:

  • показатель AUC предназначен скорее для сравнительного анализа нескольких моделей;
  • AUC не содержит никакой информации о чувствительности и специфичности модели.

В литературе иногда приводится следующая экспертная шкала для значений AUC, по которой можно судить о качестве модели:

Идеальная модель обладает 100% чувствительностью и специфичностью. Однако на практике добиться этого невозможно, более того, невозможно одновременно повысить и чувствительность, и специфичность модели. Компромисс находится с помощью порога отсечения, т.к. пороговое значение влияет на соотношение Se и Sp. Можно говорить о задаче нахождения оптимального порога отсечения (optimal cut-off value).

Порог отсечения нужен для того, чтобы применять модель на практике: относить новые примеры к одному из двух классов. Для определения оптимального порога нужно задать критерий его определения, т.к. в разных задачах присутствует своя оптимальная стратегия. Критериями выбора порога отсечения могут выступать:

  1. Требование минимальной величины чувствительности (специфичности) модели. Например, нужно обеспечить чувствительность теста не менее 80%. В этом случае оптимальным порогом будет максимальная специфичность (чувствительность), которая достигается при 80% (или значение, близкое к нему «справа» из-за дискретности ряда) чувствительности (специфичности).
  2. Требование максимальной суммарной чувствительности и специфичности модели, т.е. Cutt\underline{\,\,\,}off_o = \max_k (Se_k\,+\,Sp_k)
  3. Требование баланса между чувствительностью и специфичностью, т.е. когда Se \approx Sp: Cutt\underline{\,\,\,}off_o = \min_k \,\bigl |Se_k\,-\,Sp_k \bigr |

Второе значение порога обычно предлагается пользователю по умолчанию. В третьем случае порог есть точка пересечения двух кривых, когда по оси X откладывается порог отсечения, а по оси Y — чувствительность или специфичность модели (рис. 6).

Рис. 6 — «Точка баланса» между чувствительностью и специфичностью

Существуют и другие подходы, когда ошибкам I и II рода назначается вес, который интерпретируется как цена ошибок. Но здесь встает проблема определения этих весов, что само по себе является сложной, а часто не разрешимой задачей.

Литература

  1. Цыплаков А. А. Некоторые эконометрические методы. Метод максимального правдоподобия в эконометрии. Учебное пособие.
  2. Fawcett T. ROC Graphs: Notes and Practical Considerations for Researchers // 2004 Kluwer Academic Publishers.
  3. Zweig M.H., Campbell G. ROC Plots: A Fundamental Evaluation Tool in Clinical Medicine // Clinical Chemistry, Vol. 39, No. 4, 1993.
  4. Davis J., Goadrich M. The Relationship Between Precision-Recall and ROC Curves // Proc. Of 23 International Conference on Machine Learning, Pittsburgh, PA, 2006.

 

Другие материалы по теме:

Применение логистической регрессии в медицине и скоринге

Machine learning в Loginom на примере задачи c Kaggle

Формула креста — Большая химическая энциклопедия

Это типичная формула избегания пересечения. Соответствующие соотношения смешивания r = c2 / Ci могут быть получены из уравнения … [Pg.198]

Стереогенные центры в сахарах часто изображаются в соответствии с другим условием, чем это обычно наблюдается для других стереогенных центров. Вместо того, чтобы рисовать тетраэдр с двумя связями в плоскости, одна перед плоскостью и одна позади нее, тетраэдр наклоняется так, чтобы горизонтальные связи выходили вперед (нарисованы на клиньях), а вертикальные связи уходили позади (пунктирные линии).Эта структура затем сокращается до формулы креста, также называемой формулой проекции Фишера. В формуле проекции Фишера … [Pg.1029]

Формула проекции Фишера (Раздел 27.2A) Метод представления стереогенных центров со стереогенным углеродом на пересечении вертикальных и горизонтальных линий. Проекции Фишера также называют кросс-формулами. [Pg.1201]

Задача 4.5 Используя кросс-формулы, решите, какое из следующих соединений является хиральным. Проверяйте свой ответ с помощью формул «клюшкой и мячом» и, наконец, с помощью моделей.[Стр.126]

Задача 4.8. Создайте модели, а затем нарисуйте картинки с клюшкой и мячом и кросс-формулы для cnaniiomors (a) хлорйодметансульфоновой кислоты и (b) биомидо a-dcLilcnoethvl. Обозначьте каждый как R или S. [Pg.131]

Каждый из возможных стереоизомеров обычно представлен перекрестной формулой, как, например, в I. Как всегда в формулах такого типа, подразумевается, что … [Pg.1074]

ProWcm 34w2 Нарисуйте крестообразную формулу для одного энантиомера каждой из этих восьми пар, поместив -CHO вверху, -Ch3OH внизу и -OH справа в самом нижнем хиральном центре (C- 5).[Pg.1074]

Задача 349 (a) Используя кросс-формулы, чтобы показать конфигурацию, обрисуйте все этапы синтеза Килиани-Фишера, начиная с альдотриозы R- (f> глицеральдегид, Ch3OHCHOHCHO. Сколько альдотетрозов ожидается (b) ) Дайте конфигурацию -… [Pg.1079]

Температура начала (разлагается), ° C 320 Относительная плотность (вода-1) 2,5 Давление пара, мм рт. Ст. При 208olubllltylnwater, г / 100 млat20 C 0,5 Относительная молекулярная масса 129,1 Cross Формула O3h4N3O3 БЕЛЫЕ КРИСТАЛЛЫ М / фугас являются продуктом горения.Разлагается при нагревании выше 320 ° C с выделением коррозионных и взрывоопасных веществ. … [Стр.505]

Точка кипения, C 159 Точка вспышки. C см. Примечания Относительная плотность (вода = 1) 0,98 Относительная плотность пара (воздух 1) 3,6 Относительная плотность при 20 ° C насыщенной смеси пар / воздух (alr 1) 1,01 Давление пара, мм рт. Ст. При 20 ° C ок. 1.5 Растворимость в воде, г / 100 мл 2.5 Относительная молекулярная масса 105.1 Перекрестная формула БЕСЦВЕТНАЯ ЖИДКОСТЬ С ХАРАКТЕРИСТИЧЕСКИМ ЗАПАХОМ Пар легко смешивается с воздухом. Способен образовывать пероксиды и, таким образом, полимеризоваться.Разлагается при нагревании или сжигании с выделением токсичных паров. Реагирует бурно с сильными окислителями. … [Pg.922]

Эти формулы являются полностью общими и могут применяться к любому материалу, любой форме детали и любой катушке. в формуле проводимость пропорциональна амплитуде части потока, пересекающего катушку в фазе с током в соленоиде. [Pg.351]

Теперь проинтегрируйте уравнение (5) с учетом формул для pi и pN. В результате мы приходим к удельному объемному расходу пленки, отнесенному к единице длины поперечного сечения… [Pg.617]

Согласно простой формуле максимальное давление пузырька определяется как f max = 27 / r, где r — радиус трубы круглого поперечного сечения, а P скорректировано с учетом гидростатического напора. за счет глубины погружения трубки. Используя соответствующую таблицу, покажите, какой максимальный радиус трубы может быть использован, если ошибка 7, вычисленная по простой формуле, не должна превышать 5%. Предположим, что жидкость 7 = 25 дин / см и плотность 0,98 г / см. … [Pg.42]

Каустика Приведенные выше формулы действительны только до тех пор, пока уравнение.(9) описывает уникальную карту в пространстве позиций. Действительно, лежащая в основе теория Гамильтона-Якоби верна только для временного интервала [0, T], если во всех случаях t [0, T] отображение (QOi4o) -> Q t, qo, qo) взаимно однозначно , [6, 19, 1], т.е. до тех пор, пока траектории с разными начальными данными не пересекают друг друга в пространстве позиций (см. Рис. 1). Следовательно, обнаружение каустик при численном моделировании возможно только в том случае, если мы распространяем пучок траекторий с разными начальными значениями. Таким образом, в чистом QCMD уравнение.(11) каустики не обнаруживаются. [Pg.384]

Падение давления, когда поток газа или жидкости течет по поверхности, можно оценить по данной приблизительной формуле, если не учитывать влияние вязкости. Расчетный пример показывает, что при потоках газа, типичных для распылителей с концентрическими трубками, жидкость (раствор пробы) на конце самой внутренней трубки подвергается частичному вакууму около 0,3 атм. Этот вакуум заставляет жидкость подниматься из капилляра, где она встречается с текущим газовым потоком и превращается в аэрозоль.Для распылителей с поперечным потоком создаваемый вакуум критически зависит от выравнивания потоков газа и жидкости, но, как максимум, его можно оценить по данной формуле. [Pg.141]

Используя формулу Пуазейля, расчет показывает, что для распылителей с концентрическими трубками с размерами, аналогичными используемым для ICP / MS, пониженное давление, возникающее из-за относительной линейной скорости газа и жидкости, вызывает раствор образца необходимо извлечь из конца внутренней капиллярной трубки. Можно оценить, что скорость, с которой образец проходит через внутренний капилляр, будет около 0.7 мл / мин. Для распылителей с поперечным потоком потоки становятся аналогичными, если пересечение потоков газа и жидкости было оптимизировано. [Pg.141]

Haward et al.t сообщили о некоторых исследованиях, в которых сополимер стирола и гидроксиэтилметакрилата был сшит гексаметилендиизоцианатом. Изобразите структурную формулу части этого сшитого полимера и укажите, какая часть молекулы является результатом реакции конденсации, а какая часть — аддитивной полимеризацией. Эти авторы указывают, что реакция сшивания осуществляется в достаточно разбавленных растворах сополимера, поэтому сшивание в первую очередь является внутримолекулярным, а не межмолекулярным.Объясните разницу между этими двумя терминами и почему концентрация влияет на относительное количество каждого из них. [Pg.339]

Основа для решения проблем потока пористой среды была заложена в экспериментах Анри Дарси в 1800-х годах. Связь между объемным расходом жидкости, гидравлическим градиентом и площадью поперечного сечения yi потока задается формулой Дарси … [Pg.402]

Кристаллическая структура ramsdeUite [12032-73-4] такова. аналогичен таковому у P Mn02, за исключением того, что двойные цепи октаэдров MnO перекрестно соединяются с соседними двойными цепями через общие атомы кислорода, расположенные по углам.Рамсдейлит и пиролюзит — единственные фазы диоксида марганца, состав которых приближается к стехиометрической формуле MnO2. Нагревание плунжера до 250 ° C превращает его в пиролюзит. [Стр.509]


.

Функции потерь — ML Глоссарий документация

Глоссарий ML

Основы

  • Линейная регрессия
    • Введение
    • Простая регрессия
      • Прогнозирование
      • Функция затрат
      • Градиентный спуск
      • Обучение
      • Оценка модели
      • Сводка
    • Многопараметрическая регрессия
      • Сложность роста
      • Нормализация
      • Прогнозы
      • Инициализировать веса
      • Функция затрат
      • Градиентный спуск
      • Упрощение с помощью матриц
      • Срок смещения
      • Оценка модели
  • Градиентный спуск
    • Введение
    • Уровень обучения
    • Функция затрат
    • Пошаговая инструкция
  • Логистическая регрессия
    • Введение
      • Сравнение с линейной регрессией
      • Виды логистической регрессии
    • Бинарная логистическая регрессия
      • Активация сигмоида
      • Граница решения
      • Прогнозы
      • Функция затрат
      • Градиентный спуск
      • Отображение вероятностей на классы
      • Обучение
      • Оценка модели
    • Мультиклассовая логистическая регрессия
      • Процедура
      • Активация Softmax
      • Пример Scikit-Learn
  • Глоссарий

Математика

  • Исчисление
    • Введение
    • Производные
      • Геометрическое определение
      • Взяв производную
      • Пошаговая инструкция
      • Примеры использования машинного обучения
    • Цепное правило
      • Как это работает
      • Пошаговая инструкция
      • Несколько функций
    • Градиенты
      • Частные производные
      • Пошаговая инструкция
      • Производные по направлению
      • Полезные свойства
    • Интегралы
      • Вычислительные интегралы
      • Приложения интеграции
        • Вычислительные вероятности
        • Ожидаемое значение
        • Разница
  • Линейная алгебра
    • Векторы
      • Обозначения
      • Векторы в геометрии
      • Скалярные операции
      • Поэлементные операции
      • Точечный продукт
      • Произведение Адамара
      • Векторные поля
    • Матрицы
      • Размеры
      • Скалярные операции
      • Поэлементные операции
      • Произведение Адамара
      • Матрица транспонированная
      • Умножение матриц
      • Проверьте себя
    • Numpy
      • Точечный продукт
      • Радиовещание
  • Вероятность (TODO)
    • Ссылки
    • Скриншоты
    • Лицензия
  • Статистика (TODO)
  • Обозначение
    • Алгебра
    • Исчисление
    • Линейная алгебра
    • Вероятность
    • Теория множеств
    • Статистика

Нейронные сети

  • Концепции
    • Нейронная сеть
    • Нейрон
    • Synapse
    • Вес
    • Смещение
    • слоев
    • Взвешенный ввод
    • Функции активации
    • Функции потерь
    • Алгоритмы оптимизации
    • Накопление градиента
  • Прямое распространение
    • Простая сеть
      • Шагов
      • Код
    • Большая сеть
      • Архитектура
      • Инициализация веса
      • Условия смещения

.

Формула векторного произведения векторов с решенными примерами

    • Классы
      • Класс 1-3
      • Класс 4-5
      • Класс 6-10
      • Класс 11-12
    • КОНКУРСНЫЙ ЭКЗАМЕН
      • BNAT 000 NC
        • 000 NC Книги
          • Книги NCERT для класса 5
          • Книги NCERT для класса 6
          • Книги NCERT для класса 7
          • Книги NCERT для класса 8
          • Книги NCERT для класса 9
          • Книги NCERT для класса 10
          • Книги NCERT для класса 11
          • Книги NCERT для класса 12
        • NCERT Exemplar
          • NCERT Exemplar Class 8
          • NCERT Exemplar Class 9
          • NCERT Exemplar Class 10
          • NCERT Exemplar Class 11
          • NCERT 9000 9000
          • NCERT Exemplar Class
            • Решения RS Aggarwal, класс 12
            • Решения RS Aggarwal, класс 11
            • Решения RS Aggarwal, класс 10
            • 90 003 Решения RS Aggarwal класса 9

            • Решения RS Aggarwal класса 8
            • Решения RS Aggarwal класса 7
            • Решения RS Aggarwal класса 6
          • Решения RD Sharma
            • RD Sharma Class 6 Решения
            • Решения RD Sharma
            • Решения RD Sharma Class 8

            • Решения RD Sharma Class 9
            • Решения RD Sharma Class 10
            • Решения RD Sharma Class 11
            • Решения RD Sharma Class 12
          • PHYSICS
            • Механика
            • Оптика
            • Термодинамика Электромагнетизм
          • ХИМИЯ
            • Органическая химия
            • Неорганическая химия
            • Периодическая таблица
          • MATHS
            • Теорема Пифагора
            • 0004

            • 000300030004
            • Простые числа
            • Взаимосвязи и функции
            • Последовательности и серии
            • Таблицы умножения
            • Детерминанты и матрицы
            • Прибыль и убыток
            • Полиномиальные уравнения
            • Деление фракций
          • 000
          • 000
          • 000
          • 000
          • 000
          • 000 Microology
          • 000
          • 000 Microology
          • 000 BIOG3000
              FORMULAS

              • Математические формулы
              • Алгебраические формулы
              • Тригонометрические формулы
              • Геометрические формулы
            • КАЛЬКУЛЯТОРЫ
              • Математические калькуляторы
              • 0003000 PBS4000
              • 000300030002 Примеры калькуляторов химии
              • Класс 6

              • Образцы бумаги CBSE для класса 7
              • Образцы бумаги CBSE для класса 8
              • Образцы бумаги CBSE для класса 9
              • Образцы бумаги CBSE для класса 10
              • Образцы бумаги CBSE для класса 11
              • Образцы бумаги CBSE чел для класса 12
            • CBSE Контрольный документ за предыдущий год
              • CBSE Контрольный документ за предыдущий год Класс 10
              • Контрольный документ за предыдущий год CBSE, класс 12
            • HC Verma Solutions
              • HC Verma Solutions Class 11 Physics
              • Решения HC Verma, класс 12, физика
            • Решения Лакмира Сингха
              • Решения Лакмира Сингха, класс 9
              • Решения Лакмира Сингха, класс 10
              • Решения Лакмира Сингха, класс 8
            • Заметки CBSE
              • CBSE Notes

                  Примечания CBSE класса 7
                • Примечания CBSE класса 8
                • Примечания CBSE класса 9
                • Примечания CBSE класса 10
                • Примечания CBSE класса 11
                • Примечания CBSE класса 12
              • Примечания к редакции CBSE
                • Примечания к версии
                • CBSE
                • Примечания к редакции класса 10 CBSE
                • Примечания к редакции класса 11 CBSE 9000 4
                • Примечания к редакции класса 12 CBSE
              • Дополнительные вопросы CBSE
                • Дополнительные вопросы по математике класса 8 CBSE
                • Дополнительные вопросы по науке 8 класса CBSE
                • Дополнительные вопросы по математике класса 9 CBSE
                • Дополнительные вопросы по науке класса 9 CBSE
                • Дополнительные вопросы по математике для класса 10

                • Дополнительные вопросы по науке, класс 10 по CBSE
              • CBSE, класс
                • , класс 3
                • , класс 4
                • , класс 5
                • , класс 6
                • , класс 7
                • , класс 8
                • , класс 9 Класс 10
                • Класс 11
                • Класс 12
              • Учебные решения
            • Решения NCERT
              • Решения NCERT для класса 11
                • Решения NCERT для класса 11 по физике
                • Решения NCERT для класса 11 Химия
                • Решения для биологии класса 11

                • Решения NCERT для математики класса 11
                • 9 0003 NCERT Solutions Class 11 Accountancy

                • NCERT Solutions Class 11 Business Studies
                • NCERT Solutions Class 11 Economics
                • NCERT Solutions Class 11 Statistics
                • NCERT Solutions Class 11 Commerce
              • NCERT Solutions For Class 12
                • NCERT Solutions For Класс 12 по физике
                • Решения NCERT для химии класса 12
                • Решения NCERT для класса 12 по биологии
                • Решения NCERT для класса 12 по математике
                • Решения NCERT Класс 12 Бухгалтерия
                • Решения NCERT, класс 12, бизнес-исследования
                • Решения NCERT, класс 12 Экономика
                • NCERT Solutions Class 12 Accountancy Part 1
                • NCERT Solutions Class 12 Accountancy Part 2
                • NCERT Solutions Class 12 Micro-Economics
                • NCERT Solutions Class 12 Commerce
                • NCERT Solutions Class 12 Macro-Economics
              • NCERT Solutions For Класс 4
                • Решения NCERT для математики класса 4
                • Решения NCERT для класса 4 EVS
              • Решения NCERT для класса 5
                • Решения NCERT для математики класса 5
                • Решения NCERT для класса 5 EVS
              • Решения NCERT для класса 6
                • Решения NCERT для математики класса 6
                • Решения NCERT для науки класса 6
                • Решения NCERT для социальных наук класса 6
                • Решения NCERT для класса 6 Английский
              • Решения NCERT для класса 7
                • Решения NCERT для класса 7 Математика
                • Решения NCERT для класса 7 Наука
                • Решения NCERT для класса 7 по социальным наукам
                • Решения NCERT для класса 7 Английский
              • Решения NCERT для класса 8
                • Решения NCERT для класса 8 Математика
                • Решения NCERT для класса 8 Science
                • Решения NCERT для социальных наук 8 класса
                • Решение NCERT ns для класса 8 Английский
              • Решения NCERT для класса 9
                • Решения NCERT для социальных наук класса 9
              • Решения NCERT для математики класса 9
                • Решения NCERT для математики класса 9 Глава 1
                • Решения NCERT для Математика класса 9 Глава 2
                • Решения NCERT для математики класса 9 Глава 3
                • Решения NCERT для математики класса 9 Глава 4
                • Решения NCERT

                • для математики класса 9 Глава 5
                • Решения NCERT для математики класса 9 Глава 6
                • Решения NCERT для Математика класса 9 Глава 7
                • Решения NCERT для математики класса 9 Глава 8
                • Решения NCERT

                • для математики класса 9 Глава 9
                • Решения NCERT

                • для математики класса 9 Глава 10
                • Решения NCERT для математики класса 9 Глава 11
                • Решения NCERT для Математика класса 9 Глава 12
                • Решения NCERT для математики класса 9 Глава 13
                • Решения

                • NCERT для математики класса 9 Глава 14
                • Решения NCERT для математики класса 9 Глава 15
              • Решения NCERT для науки класса 9
                • Решения NCERT для науки класса 9 Глава 1
                • Решения NCERT для науки класса 9 Глава 2
                • Решения NCERT для класса 9 Наука Глава 3
                • Решения NCERT для Науки Класса 9 Глава 4
                • Решения NCERT для Науки Класса 9 Глава 5
                • Решения NCERT для Науки Класса 9 Глава 6
                • Решения NCERT для Науки Класса 9 Глава 7
                • Решения NCERT для Класса 9 Наука, глава 8
                • Решения NCERT для науки 9 класса
                • Решения NCERT для науки класса 9 Глава 10
                • Решения NCERT для науки класса 9 Глава 12
                • Решения NCERT для науки класса 9 Глава 11
                • Решения NCERT для класса 9 Наука Глава 13
                • Решения NCERT для класса 9 Наука Глава 14
                • Решения NCERT для класса 9 по науке Глава 15
              • Решения NCERT для класса 10
                • Решения NCERT для класса 10 по социальным наукам
              • Решения NCERT для математики класса 10
                • Решения NCERT для математики класса 10 Глава 1
                • Решения NCERT для математики класса 10 Глава 2
                • Решения NCERT для математики класса 10 Глава 3
                • Решения NCERT для математики класса 10 Глава 4
                • Решения NCERT для математики класса 10 Глава 5
                • Решения NCERT для математики класса 10 Глава 6
                • Решения NCERT для математики класса 10 Глава 7
                • Решения NCERT

                • для математики класса 10 Глава 8
                • Решения NCERT для математики класса 10 Глава 9
                • Решения NCERT

                • для математики класса 10 Глава 10
                • Решения NCERT

                • для математики класса 10 Глава 11
                • Решения NCERT для математики класса 10 Глава 12
                • Решения NCERT для математики класса 10 Глава 13
                • NCERT Sol Решения NCERT для математики класса 10 Глава 14
                • Решения NCERT для математики класса 10 Глава 15
              • Решения NCERT для науки класса 10
                • Решения NCERT для науки класса 10 Глава 1
                • Решения NCERT для науки класса 10 Глава 2
                • Решения NCERT для науки 10 класса, глава 3
                • Решения NCERT для науки 10 класса, глава 4
                • Решения NCERT для науки класса 10 Глава 5
                • Решения NCERT для науки класса 10 Глава 6
                • Решения NCERT для науки класса 10 Глава 7
                • Решения NCERT для науки 10 класса, глава 8
                • Решения NCERT для науки класса 10 Глава 9
                • Решения NCERT для науки класса 10 Глава 10
                • Решения NCERT для науки класса 10 Глава 11
                • Решения NCERT для науки класса 10 Глава 12
                • Решения NCERT для науки 10 класса Глава 13
                • Решения NCERT для науки 10 класса Глава 14
                • Решения NCERT для науки 10 класса Глава 15
                • Решения NCERT для науки 10 класса Глава 16
              • Учебный план NCERT
              • NCERT
            • Commerce
              • Class 11 Commerce Syllabus
                  ancy Account

                • Учебная программа по бизнесу 11 класса
                • Учебная программа по экономике 11 класса
              • Учебная программа по бизнесу 12 класса

        .

        Формула перекрестной ценовой эластичности спроса

        Формула перекрестной ценовой эластичности спроса (Содержание)

        Формула перекрестной ценовой эластичности спроса

        Изменение спроса на продукт A из-за изменения цены продукта B известно как перекрестная ценовая эластичность спроса.

        Формулу перекрестной ценовой эластичности спроса можно резюмировать следующим образом:

        Эластичность спроса по перекрестной цене =% изменение объема спроса на продукт A /% изменение цены продукта B

        Примеры формулы перекрестной ценовой эластичности спроса (с шаблоном Excel)

        Давайте рассмотрим пример, чтобы лучше понять расчет формулы кросс-ценовой эластичности спроса.

        Пример # 1

        Мы знаем, что чай и кофе относятся к категории «Напитки», и их можно назвать идеальными заменителями друг друга. Таким образом, определенная волатильность цен на один товар может таким же образом повлиять на спрос на другой товар.

        Предположим, повышение цены на чай на 5% может привести к увеличению количества закрытых заменителей, например, кофе (мы предполагаем, что цена на кофе останется прежней) на 15%. Рассчитайте кросс-ценовую эластичность чая и кофе.

        .

Добавить комментарий

Ваш адрес email не будет опубликован.