如何为机器学习拆分数据

PythonPythonBeginner
立即练习

💡 本教程由 AI 辅助翻译自英文原版。如需查看原文,您可以 切换至英文原版

简介

本全面的 Python 教程探讨了机器学习项目中数据拆分的关键过程。了解如何有效地划分数据集对于构建强大且准确的预测模型至关重要。我们将涵盖基本策略、实用技术和实际示例,以帮助你掌握数据准备和模型评估。


Skills Graph

%%%%{init: {'theme':'neutral'}}%%%% flowchart RL python(("Python")) -.-> python/ControlFlowGroup(["Control Flow"]) python(("Python")) -.-> python/DataStructuresGroup(["Data Structures"]) python(("Python")) -.-> python/FunctionsGroup(["Functions"]) python(("Python")) -.-> python/PythonStandardLibraryGroup(["Python Standard Library"]) python(("Python")) -.-> python/DataScienceandMachineLearningGroup(["Data Science and Machine Learning"]) python/ControlFlowGroup -.-> python/conditional_statements("Conditional Statements") python/DataStructuresGroup -.-> python/lists("Lists") python/FunctionsGroup -.-> python/function_definition("Function Definition") python/FunctionsGroup -.-> python/arguments_return("Arguments and Return Values") python/PythonStandardLibraryGroup -.-> python/data_collections("Data Collections") python/DataScienceandMachineLearningGroup -.-> python/data_analysis("Data Analysis") subgraph Lab Skills python/conditional_statements -.-> lab-425419{{"如何为机器学习拆分数据"}} python/lists -.-> lab-425419{{"如何为机器学习拆分数据"}} python/function_definition -.-> lab-425419{{"如何为机器学习拆分数据"}} python/arguments_return -.-> lab-425419{{"如何为机器学习拆分数据"}} python/data_collections -.-> lab-425419{{"如何为机器学习拆分数据"}} python/data_analysis -.-> lab-425419{{"如何为机器学习拆分数据"}} end

数据拆分基础

什么是数据拆分?

数据拆分是机器学习中的一项基本技术,它涉及在模型开发和评估过程中,将数据集划分为不同的子集以用于不同目的。主要目标是通过将数据分离为训练集、验证集和测试集,来创建可靠且无偏差的机器学习模型。

为什么数据拆分很重要?

数据拆分在机器学习中具有几个关键作用:

  1. 防止过拟合:通过使用单独的数据集进行训练和测试,我们可以确保模型能够很好地泛化到未见过的数据。
  2. 模型评估:拆分允许对模型在未训练过的数据上的性能进行客观评估。
  3. 泛化能力:有助于了解模型在新的独立数据上的表现如何。

常见的拆分策略

1. 训练集 - 测试集拆分

最基本的拆分策略是将数据分为两部分:

graph LR A[原始数据集] --> B[训练集] A --> C[测试集]

使用 Python 和 scikit - learn 的示例:

from sklearn.model_selection import train_test_split
import numpy as np

## 创建示例数据
X = np.array([[1, 2], [3, 4], [5, 6], [7, 8]])
y = np.array([0, 1, 0, 1])

## 拆分数据
X_train, X_test, y_train, y_test = train_test_split(
    X, y, test_size=0.25, random_state=42
)

2. 训练集 - 验证集 - 测试集拆分

一种更全面的方法,包括一个验证集:

graph LR A[原始数据集] --> B[训练集] A --> C[验证集] A --> D[测试集]
拆分类型 目的 典型比例
训练集 模型学习 60 - 70%
验证集 超参数调整 15 - 20%
测试集 最终模型评估 15 - 20%

3. 交叉验证

交叉验证是一种高级技术,可提供更稳健的评估:

graph LR A[数据集] --> B[折1] A --> C[折2] A --> D[折3] A --> E[折4] A --> F[折5]

K折交叉验证示例:

from sklearn.model_selection import cross_val_score
from sklearn.linear_model import LogisticRegression

## 执行5折交叉验证
model = LogisticRegression()
scores = cross_val_score(model, X, y, cv=5)
print("交叉验证分数:", scores)
print("平均CV分数:", scores.mean())

关键注意事项

  • 数据拆分中的随机性对于确保无偏差采样至关重要
  • 拆分方法取决于数据集大小和问题复杂度
  • 始终保持相同的随机状态以确保可重复性

通过掌握数据拆分技术,你将有能力开发更可靠的机器学习模型。LabEx 建议通过实践这些技术来积累实际经验。

拆分策略

拆分技术概述

数据拆分策略对于开发强大的机器学习模型至关重要。本节将探讨有效划分数据集的各种方法。

1. 简单随机拆分

基本实现

from sklearn.model_selection import train_test_split
import pandas as pd
import numpy as np

## 加载示例数据集
data = pd.DataFrame({
    '特征1': np.random.rand(100),
    '特征2': np.random.rand(100),
    '目标': np.random.randint(0, 2, 100)
})

## 以固定测试集大小进行随机拆分
X_train, X_test, y_train, y_test = train_test_split(
    data[['特征1', '特征2']],
    data['目标'],
    test_size=0.2,
    random_state=42
)

拆分配置

拆分比例 训练集 测试集 使用场景
70/30 70% 30% 标准方法
80/20 80% 20% 小数据集
60/40 60% 40% 数据有限的情况

2. 分层拆分

保持类别分布

graph TD A[原始数据集] --> B{分层拆分} B --> C[保留的类别比例] B --> D[平衡的表示]
from sklearn.model_selection import train_test_split

## 用于分类的分层拆分
X_train, X_test, y_train, y_test = train_test_split(
    X, y,
    test_size=0.3,
    stratify=y,  ## 保持类别分布
    random_state=42
)

3. 基于时间的拆分

顺序数据方法

def time_based_split(data, train_ratio=0.7):
    ## 按时间顺序对数据进行排序
    sorted_data = data.sort_values('时间戳')

    ## 计算拆分索引
    split_index = int(len(sorted_data) * train_ratio)

    ## 拆分数据集
    train_data = sorted_data.iloc[:split_index]
    test_data = sorted_data.iloc[split_index:]

    return train_data, test_data

4. K折交叉验证

高级验证策略

from sklearn.model_selection import KFold
import numpy as np

## K折交叉验证
kf = KFold(n_splits=5, shuffle=True, random_state=42)

for train_index, test_index in kf.split(X):
    X_train, X_test = X[train_index], X[test_index]
    y_train, y_test = y[train_index], y[test_index]

实际考虑因素

选择正确的策略

  1. 数据集大小:较小的数据集受益于交叉验证
  2. 数据特征
    • 平衡/不平衡类别
    • 时间序列数据与独立数据
  3. 模型复杂度:更复杂的模型需要更稳健的验证

最佳实践

  • 始终设置固定的随机种子
  • 考虑数据分布
  • 根据具体问题使用适当的拆分方法
  • 持续验证模型性能

LabEx 建议尝试不同的拆分策略,以了解它们对模型性能的影响。

实际示例

实际数据拆分场景

1. 二元分类:垃圾邮件检测

import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import accuracy_score, classification_report

## 加载垃圾邮件数据集
spam_data = pd.read_csv('spam_dataset.csv')

## 准备特征和目标
X = spam_data.drop('is_spam', axis=1)
y = spam_data['is_spam']

## 分层拆分
X_train, X_test, y_train, y_test = train_test_split(
    X, y,
    test_size=0.2,
    stratify=y,
    random_state=42
)

## 缩放特征
scaler = StandardScaler()
X_train_scaled = scaler.fit_transform(X_train)
X_test_scaled = scaler.transform(X_test)

## 训练模型
model = LogisticRegression()
model.fit(X_train_scaled, y_train)

## 评估
y_pred = model.predict(X_test_scaled)
print(classification_report(y_test, y_pred))

2. 时间序列预测:股票价格预测

import pandas as pd
import numpy as np
from sklearn.preprocessing import MinMaxScaler
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import LSTM, Dense

def create_time_series_split(data, train_ratio=0.8):
    ## 按日期排序
    data_sorted = data.sort_values('date')

    ## 计算拆分点
    split_index = int(len(data_sorted) * train_ratio)

    ## 拆分数据
    train_data = data_sorted.iloc[:split_index]
    test_data = data_sorted.iloc[split_index:]

    return train_data, test_data

## 加载股票价格数据
stock_data = pd.read_csv('stock_prices.csv')

## 基于时间的拆分
train_data, test_data = create_time_series_split(stock_data)

## 准备序列
def create_sequences(data, time_steps=10):
    X, y = [], []
    for i in range(len(data) - time_steps):
        X.append(data[i:i+time_steps])
        y.append(data[i+time_steps])
    return np.array(X), np.array(y)

## 创建LSTM模型
model = Sequential([
    LSTM(50, activation='relu', input_shape=(10, 1)),
    Dense(1)
])
model.compile(optimizer='adam', loss='mse')

3. 多类别分类:使用交叉验证的鸢尾花数据集

from sklearn.datasets import load_iris
from sklearn.model_selection import cross_val_score
from sklearn.svm import SVC

## 加载鸢尾花数据集
iris = load_iris()
X, y = iris.data, iris.target

## 执行交叉验证
cv_scores = cross_val_score(
    SVC(kernel='rbf'),
    X, y,
    cv=5,  ## 5折交叉验证
    scoring='accuracy'
)

## 评估指标
print("交叉验证分数:", cv_scores)
print("平均CV分数: {:.2f} (+/- {:.2f})".format(
    cv_scores.mean(), cv_scores.std() * 2
))

拆分策略比较

场景 拆分方法 关键注意事项
小数据集 分层拆分 保留类别分布
时间序列 按时间顺序拆分 保持时间顺序
复杂问题 K折交叉验证 稳健的性能估计

拆分过程可视化

graph TD A[原始数据集] --> B{拆分策略} B --> C[训练集] B --> D[验证集] B --> E[测试集] C --> F[模型训练] D --> G[超参数调整] E --> H[最终模型评估]

关键要点

  1. 根据数据特征选择拆分策略
  2. 确保代表性采样
  3. 使用适当的验证技术
  4. 考虑模型复杂度和数据集大小

LabEx 建议通过实践这些技术来开发强大的机器学习模型。

总结

通过掌握 Python 中的数据拆分技术,数据科学家和机器学习从业者可以显著提高模型的性能和可靠性。本教程深入介绍了各种拆分策略,展示了如何使用 Python 的强大库和工具来创建可靠的训练、验证和测试数据集。