简介
本实验展示了如何使用接收者操作特征(ROC)指标,通过 Scikit-learn 库来评估多类分类器的质量。
虚拟机使用提示
虚拟机启动完成后,点击左上角切换到“笔记本”标签,以访问 Jupyter Notebook 进行练习。
有时,你可能需要等待几秒钟让 Jupyter Notebook 完成加载。由于 Jupyter Notebook 的限制,操作验证无法自动化。
如果你在学习过程中遇到问题,随时向 Labby 提问。课程结束后提供反馈,我们会及时为你解决问题。
加载并准备数据
让我们从加载鸢尾花数据集开始,并为使用 ROC 指标评估分类器做准备。
import numpy as np
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
iris = load_iris()
target_names = iris.target_names
X, y = iris.data, iris.target
y = iris.target_names[y]
## 添加噪声特征以使问题更具挑战性
random_state = np.random.RandomState(0)
n_samples, n_features = X.shape
n_classes = len(np.unique(y))
X = np.concatenate([X, random_state.randn(n_samples, 200 * n_features)], axis=1)
## 将数据拆分为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.5, stratify=y, random_state=0)
一对多多类 ROC
一对其余(One-vs-the-Rest,OvR)多类策略包括为每个 n_classes 计算一条 ROC 曲线。在每一步中,将给定的类视为正类,其余类作为一个整体视为负类。在这一步中,我们展示如何使用 OvR 多类策略计算 ROC 曲线。
from sklearn.preprocessing import LabelBinarizer
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import roc_curve, roc_auc_score
import matplotlib.pyplot as plt
from sklearn.metrics import RocCurveDisplay
## 使用 OvR 策略对目标进行二值化
label_binarizer = LabelBinarizer().fit(y_train)
y_onehot_test = label_binarizer.transform(y_test)
## 训练逻辑回归模型
classifier = LogisticRegression()
y_score = classifier.fit(X_train, y_train).predict_proba(X_test)
## 计算每个类别的 ROC 曲线和 ROC AUC 分数
fpr, tpr, roc_auc = dict(), dict(), dict()
for i in range(n_classes):
fpr[i], tpr[i], _ = roc_curve(y_onehot_test[:, i], y_score[:, i])
roc_auc[i] = roc_auc_score(y_onehot_test[:, i], y_score[:, i])
## 计算微平均 ROC 曲线和 ROC 面积
fpr["micro"], tpr["micro"], _ = roc_curve(y_onehot_test.ravel(), y_score.ravel())
roc_auc["micro"] = roc_auc_score(y_onehot_test, y_score, multi_class="ovr", average="micro")
## 计算宏平均 ROC 曲线和 ROC 面积
## 汇总每个类别的真/假阳性率
fpr["macro"], tpr["macro"] = [], []
for i in range(n_classes):
fpr_averaged, tpr_averaged = [], []
for j in range(n_classes):
if i!= j:
fpr_averaged += list(fpr[j])
tpr_averaged += list(tpr[j])
fpr_averaged = np.array(fpr_averaged)
tpr_averaged = np.array(tpr_averaged)
fpr["macro"].append(fpr_averaged)
tpr["macro"].append(tpr_averaged)
fpr["macro"] = np.concatenate(fpr["macro"])
tpr["macro"] = np.concatenate(tpr["macro"])
roc_auc["macro"] = roc_auc_score(y_onehot_test, y_score, multi_class="ovr", average="macro")
## 绘制每个类别的 ROC 曲线以及微/宏平均值
fig, ax = plt.subplots(figsize=(6, 6))
colors = ["aqua", "darkorange", "cornflowerblue"]
for i, color in zip(range(n_classes), colors):
RocCurveDisplay.from_predictions(
y_onehot_test[:, i],
y_score[:, i],
name=f"ROC 曲线 of class {target_names[i]} (AUC = {roc_auc[i]:.2f})",
color=color,
ax=ax,
plot_micro=False,
plot_macro=False,
)
RocCurveDisplay.from_predictions(
y_onehot_test.ravel(),
y_score.ravel(),
name=f"微平均 ROC 曲线 (AUC = {roc_auc['micro']:.2f})",
color="deeppink",
linestyle=":",
linewidth=4,
ax=ax,
)
plt.plot(
fpr["macro"],
tpr["macro"],
label=f"宏平均 ROC 曲线 (AUC = {roc_auc['macro']:.2f})",
color="navy",
linestyle=":",
linewidth=4,
)
plt.plot([0, 1], [0, 1], "k--", label="随机水平")
plt.axis("square")
plt.xlabel("假阳性率")
plt.ylabel("真阳性率")
plt.title("一对多 ROC 曲线")
plt.legend()
plt.show()
一对一多类 ROC
一对一(One-vs-One,OvO)多类策略包括为每对类别拟合一个分类器。由于它需要训练 (n_classes \times (n_classes - 1) / 2) 个分类器,由于其 (O(n_classes ^2)) 的复杂度,这种方法通常比一对其余(One-vs-Rest)方法慢。在这一步中,我们展示如何使用 OvO 多类策略计算 ROC 曲线。
pair_list = [(0, 1), (1, 2), (0, 2)]
pair_scores = []
mean_tpr = dict()
## 为每对类别计算 ROC 曲线和 ROC AUC 分数
for ix, (label_a, label_b) in enumerate(pair_list):
a_mask = y_test == target_names[label_a]
b_mask = y_test == target_names[label_b]
ab_mask = np.logical_or(a_mask, b_mask)
a_true = a_mask[ab_mask]
b_true = b_mask[ab_mask]
idx_a = np.flatnonzero(label_binarizer.classes_ == target_names[label_a])[0]
idx_b = np.flatnonzero(label_binarizer.classes_ == target_names[label_b])[0]
fpr_a, tpr_a, _ = roc_curve(a_true, y_score[ab_mask, idx_a])
fpr_b, tpr_b, _ = roc_curve(b_true, y_score[ab_mask, idx_b])
mean_tpr[ix] = np.zeros_like(fpr_grid)
mean_tpr[ix] += np.interp(fpr_grid, fpr_a, tpr_a)
mean_tpr[ix] += np.interp(fpr_grid, fpr_b, tpr_b)
mean_tpr[ix] /= 2
mean_score = auc(fpr_grid, mean_tpr[ix])
pair_scores.append(mean_score)
fig, ax = plt.subplots(figsize=(6, 6))
plt.plot(
fpr_grid,
mean_tpr[ix],
label=f"Mean {target_names[label_a]} vs {target_names[label_b]} (AUC = {mean_score :.2f})",
linestyle=":",
linewidth=4,
)
RocCurveDisplay.from_predictions(
a_true,
y_score[ab_mask, idx_a],
ax=ax,
name=f"{target_names[label_a]} as positive class",
)
RocCurveDisplay.from_predictions(
b_true,
y_score[ab_mask, idx_b],
ax=ax,
name=f"{target_names[label_b]} as positive class",
plot_chance_level=True,
)
plt.axis("square")
plt.xlabel("False Positive Rate")
plt.ylabel("True Positive Rate")
plt.title(f"{target_names[idx_a]} vs {target_names[idx_b]} ROC curves")
plt.legend()
plt.show()
## 计算宏平均 ROC 曲线和 ROC AUC 分数
mean_tpr = np.zeros_like(fpr_grid)
for ix in range(len(pair_list)):
mean_tpr += mean_tpr[ix]
mean_tpr /= len(pair_list)
macro_roc_auc_ovo = roc_auc_score(y_test, y_score, multi_class="ovo", average="macro")
plt.plot(
fpr_grid,
mean_tpr,
label=f"Macro-average ROC curve (AUC = {macro_roc_auc_ovo:.2f})",
linestyle=":",
linewidth=4,
)
plt.plot([0, 1], [0, 1], "k--", label="随机水平")
plt.axis("square")
plt.xlabel("False Positive Rate")
plt.ylabel("True Positive Rate")
plt.title("一对一 ROC 曲线")
plt.legend()
plt.show()
总结
在本实验中,我们学习了如何使用 ROC 曲线和 ROC AUC 分数来评估多类分类器的性能。我们展示了如何使用一对其余(One-vs-Rest,OvR)和一对一(One-vs-One,OvO)多类策略来计算 ROC 曲线。我们还展示了如何使用 Scikit-learn 计算微平均和宏平均 ROC 曲线以及 ROC AUC 分数。