简体中文 繁體中文 English Deutsch 한국 사람 بالعربية TÜRKÇE português คนไทย Français Japanese

站内搜索

搜索

活动公告

通知:本站资源由网友上传分享,如有违规等问题请到版务模块进行投诉,将及时处理!
10-23 09:31

pandas数据清洗入门教程新手必备的数据处理技能从零开始学起轻松应对数据分析中的各种清洗问题提升工作效率

SunJu_FaceMall

3万

主题

166

科技点

3万

积分

大区版主

碾压王

积分
32106
发表于 2025-8-27 11:20:00 | 显示全部楼层 |阅读模式 [标记阅至此楼]

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
引言

在数据分析的旅程中,数据清洗是最基础也是最关键的一步。俗话说”垃圾进,垃圾出”,无论你的分析模型多么复杂,如果输入的数据质量不高,结果也必然不可靠。据估计,数据科学家通常花费60%-80%的时间在数据清洗和准备工作上。掌握高效的数据清洗技能,不仅能提高你的工作效率,还能确保后续分析的准确性和可靠性。

pandas作为Python生态中最强大的数据处理库,提供了丰富而灵活的工具来应对各种数据清洗挑战。本教程将从零开始,带你逐步掌握pandas数据清洗的核心技能,帮助你轻松应对数据分析中的各种清洗问题。

pandas基础

在开始数据清洗之前,我们需要先了解pandas的基本概念和数据结构。

安装和导入pandas

如果你还没有安装pandas,可以通过以下命令安装:
  1. pip install pandas
复制代码

安装完成后,我们可以在Python脚本中导入pandas:
  1. import pandas as pd
  2. import numpy as np  # 通常与pandas一起使用
复制代码

pandas的核心数据结构

pandas有两个核心数据结构:Series和DataFrame。

Series:一维标记数组,能够保存任何数据类型(整数、字符串、浮点数、Python对象等)。
  1. # 创建一个Series
  2. s = pd.Series([1, 3, 5, np.nan, 6, 8])
  3. print(s)
复制代码

输出:
  1. 0    1.0
  2. 1    3.0
  3. 2    5.0
  4. 3    NaN
  5. 4    6.0
  6. 5    8.0
  7. dtype: float64
复制代码

DataFrame:二维标记数据结构,可以看作是一个表格或Series对象的集合。
  1. # 创建一个DataFrame
  2. data = {'Name': ['Tom', 'Nick', 'John', 'Tom'],
  3.         'Age': [20, 21, 19, 20],
  4.         'Score': [85.5, 90.0, 76.5, 85.5]}
  5. df = pd.DataFrame(data)
  6. print(df)
复制代码

输出:
  1. Name  Age  Score
  2. 0   Tom   20   85.5
  3. 1  Nick   21   90.0
  4. 2  John   19   76.5
  5. 3   Tom   20   85.5
复制代码

数据加载与初步检查

数据清洗的第一步是加载数据并进行初步检查,了解数据的基本情况。

加载数据

pandas支持多种数据格式的加载,包括CSV、Excel、SQL数据库等。
  1. # 从CSV文件加载数据
  2. df = pd.read_csv('data.csv')
  3. # 从Excel文件加载数据
  4. df = pd.read_excel('data.xlsx')
  5. # 从SQL数据库加载数据
  6. import sqlite3
  7. conn = sqlite3.connect('database.db')
  8. df = pd.read_sql('SELECT * FROM table_name', conn)
复制代码

查看数据基本信息

加载数据后,我们需要查看数据的基本信息,包括数据维度、前几行、数据类型等。
  1. # 查看数据维度(行数和列数)
  2. print(df.shape)
  3. # 查看前5行数据
  4. print(df.head())
  5. # 查看后5行数据
  6. print(df.tail())
  7. # 查看数据的基本信息
  8. print(df.info())
  9. # 查看数据的统计摘要
  10. print(df.describe())
  11. # 查看各列的数据类型
  12. print(df.dtypes)
复制代码

示例:加载数据集并初步检查

让我们使用pandas内置的泰坦尼克号数据集作为示例:
  1. # 加载泰坦尼克号数据集
  2. df = pd.read_csv('https://raw.githubusercontent.com/datasciencedojo/datasets/master/titanic.csv')
  3. # 查看数据维度
  4. print(f"数据维度: {df.shape}")
  5. # 查看前5行数据
  6. print("\n前5行数据:")
  7. print(df.head())
  8. # 查看数据基本信息
  9. print("\n数据基本信息:")
  10. df.info()
  11. # 查看数值型列的统计摘要
  12. print("\n数值型列的统计摘要:")
  13. print(df.describe())
复制代码

通过这些初步检查,我们可以了解到数据的基本情况,包括数据量、列名、数据类型、缺失值情况等,为后续的数据清洗工作奠定基础。

处理缺失值

缺失值是数据清洗中最常见的问题之一。pandas中缺失值通常表示为NaN(Not a Number)。

检测缺失值
  1. # 检查每列的缺失值数量
  2. print(df.isnull().sum())
  3. # 检查整个数据框的缺失值数量
  4. print(df.isnull().sum().sum())
  5. # 检查哪些行包含缺失值
  6. print(df[df.isnull().any(axis=1)])
  7. # 检查每列的缺失值比例
  8. missing_percentage = df.isnull().mean() * 100
  9. print(missing_percentage)
复制代码

处理缺失值的方法

处理缺失值有几种常见策略:删除、填充和插值。
  1. # 删除包含缺失值的行
  2. df_dropna_rows = df.dropna()
  3. # 删除包含缺失值的列
  4. df_dropna_cols = df.dropna(axis=1)
  5. # 删除所有值都为缺失值的行
  6. df_dropna_all = df.dropna(how='all')
  7. # 删除至少有n个非缺失值的行
  8. df_dropna_thresh = df.dropna(thresh=5)  # 至少有5个非缺失值的行才会被保留
复制代码
  1. # 用特定值填充缺失值
  2. df_filled = df.fillna(0)
  3. # 用列的平均值填充缺失值(仅适用于数值型列)
  4. df_mean_filled = df.fillna(df.mean())
  5. # 用列的中位数填充缺失值(仅适用于数值型列)
  6. df_median_filled = df.fillna(df.median())
  7. # 用众数填充缺失值(适用于分类数据)
  8. df_mode_filled = df.fillna(df.mode().iloc[0])
  9. # 用前一个值填充缺失值(向前填充)
  10. df_ffill = df.fillna(method='ffill')
  11. # 用后一个值填充缺失值(向后填充)
  12. df_bfill = df.fillna(method='bfill')
  13. # 对不同的列使用不同的填充策略
  14. df_specific_fill = df.fillna({
  15.     'Age': df['Age'].median(),
  16.     'Cabin': 'Unknown',
  17.     'Embarked': df['Embarked'].mode()[0]
  18. })
复制代码
  1. # 线性插值
  2. df_linear = df.interpolate()
  3. # 时间序列数据的插值
  4. # 如果有日期时间索引,可以使用时间插值
  5. df_time = df.interpolate(method='time')
  6. # 多项式插值
  7. df_poly = df.interpolate(method='polynomial', order=2)
复制代码

示例:处理泰坦尼克号数据集中的缺失值

让我们继续使用泰坦尼克号数据集来处理缺失值:
  1. # 加载数据
  2. df = pd.read_csv('https://raw.githubusercontent.com/datasciencedojo/datasets/master/titanic.csv')
  3. # 检查缺失值
  4. print("缺失值统计:")
  5. print(df.isnull().sum())
  6. # 处理Age列的缺失值:使用中位数填充
  7. df['Age'].fillna(df['Age'].median(), inplace=True)
  8. # 处理Cabin列的缺失值:填充为'Unknown'
  9. df['Cabin'].fillna('Unknown', inplace=True)
  10. # 处理Embarked列的缺失值:使用众数填充
  11. df['Embarked'].fillna(df['Embarked'].mode()[0], inplace=True)
  12. # 再次检查缺失值
  13. print("\n处理后的缺失值统计:")
  14. print(df.isnull().sum())
复制代码

处理重复值

重复值是数据清洗中另一个常见问题,它们可能会影响数据分析的结果。

检测重复值
  1. # 检查是否有重复行
  2. print(df.duplicated().sum())
  3. # 查看重复行
  4. print(df[df.duplicated()])
  5. # 基于特定列检查重复值
  6. print(df.duplicated(subset=['Name']).sum())
复制代码

处理重复值
  1. # 删除所有重复行
  2. df_drop_duplicates = df.drop_duplicates()
  3. # 删除基于特定列的重复行,保留第一个出现的行
  4. df_drop_subset_first = df.drop_duplicates(subset=['Name'], keep='first')
  5. # 删除基于特定列的重复行,保留最后一个出现的行
  6. df_drop_subset_last = df.drop_duplicates(subset=['Name'], keep='last')
  7. # 删除所有重复行(不保留任何重复行)
  8. df_drop_all = df.drop_duplicates(subset=['Name'], keep=False)
复制代码

示例:处理重复值
  1. # 创建一个包含重复值的示例数据框
  2. data = {'Name': ['Tom', 'Nick', 'John', 'Tom', 'Alice', 'Nick'],
  3.         'Age': [20, 21, 19, 20, 22, 21],
  4.         'Score': [85.5, 90.0, 76.5, 85.5, 88.0, 90.0]}
  5. df = pd.DataFrame(data)
  6. print("原始数据:")
  7. print(df)
  8. # 检查重复行
  9. print("\n重复行数量:", df.duplicated().sum())
  10. # 删除重复行
  11. df_clean = df.drop_duplicates()
  12. print("\n删除重复行后的数据:")
  13. print(df_clean)
复制代码

数据类型转换

正确的数据类型对于数据分析至关重要。在数据清洗过程中,我们经常需要转换列的数据类型。

查看数据类型
  1. # 查看各列的数据类型
  2. print(df.dtypes)
  3. # 查看数据类型的唯一值
  4. for col in df.columns:
  5.     print(f"{col}: {df[col].dtype}")
复制代码

转换数据类型
  1. # 转换为数值类型
  2. df['Age'] = pd.to_numeric(df['Age'], errors='coerce')  # errors='coerce'将无法转换的值设为NaN
  3. # 转换为整数类型
  4. df['Age'] = df['Age'].astype(int)
  5. # 转换为浮点数类型
  6. df['Score'] = df['Score'].astype(float)
  7. # 转换为字符串类型
  8. df['Name'] = df['Name'].astype(str)
  9. # 转换为日期时间类型
  10. df['Date'] = pd.to_datetime(df['Date'])
  11. # 转换为分类类型(适用于具有有限个唯一值的列)
  12. df['Gender'] = df['Gender'].astype('category')
复制代码

处理混合类型

有时,一列中可能包含混合的数据类型,这需要我们进行特殊处理。
  1. # 假设Price列包含字符串和数值,如"$100", "200", "¥300"
  2. # 首先转换为字符串,然后移除非数字字符,最后转换为数值
  3. df['Price'] = df['Price'].astype(str).str.replace(r'[^\d.]', '', regex=True)
  4. df['Price'] = pd.to_numeric(df['Price'], errors='coerce')
复制代码

示例:数据类型转换
  1. # 创建一个包含混合数据类型的示例数据框
  2. data = {'Name': ['Tom', 'Nick', 'John'],
  3.         'Age': ['20', '21', '19'],  # 字符串类型的年龄
  4.         'Score': ['85.5', '90.0', '76.5'],  # 字符串类型的分数
  5.         'Date': ['2021-01-01', '2021-02-01', '2021-03-01'],  # 字符串类型的日期
  6.         'Member': ['Yes', 'No', 'Yes']}  # 字符串类型的布尔值
  7. df = pd.DataFrame(data)
  8. print("原始数据类型:")
  9. print(df.dtypes)
  10. # 转换数据类型
  11. df['Age'] = df['Age'].astype(int)
  12. df['Score'] = df['Score'].astype(float)
  13. df['Date'] = pd.to_datetime(df['Date'])
  14. df['Member'] = df['Member'].map({'Yes': True, 'No': False})
  15. print("\n转换后的数据类型:")
  16. print(df.dtypes)
复制代码

异常值处理

异常值是数据集中与其他观测值显著不同的数据点。它们可能是测量错误、数据录入错误或真正的异常情况。处理异常值是数据清洗的重要一步。

检测异常值
  1. # 查看数值列的统计摘要
  2. print(df.describe())
  3. # 计算四分位数和IQR(四分位距)
  4. Q1 = df['Age'].quantile(0.25)
  5. Q3 = df['Age'].quantile(0.75)
  6. IQR = Q3 - Q1
  7. # 定义异常值的边界
  8. lower_bound = Q1 - 1.5 * IQR
  9. upper_bound = Q3 + 1.5 * IQR
  10. # 找出异常值
  11. outliers = df[(df['Age'] < lower_bound) | (df['Age'] > upper_bound)]
  12. print("Age列的异常值:")
  13. print(outliers)
复制代码
  1. import matplotlib.pyplot as plt
  2. import seaborn as sns
  3. # 箱线图
  4. plt.figure(figsize=(10, 6))
  5. sns.boxplot(x=df['Age'])
  6. plt.title('Age列的箱线图')
  7. plt.show()
  8. # 直方图
  9. plt.figure(figsize=(10, 6))
  10. plt.hist(df['Age'], bins=30)
  11. plt.title('Age列的直方图')
  12. plt.show()
  13. # 散点图
  14. plt.figure(figsize=(10, 6))
  15. plt.scatter(df.index, df['Age'])
  16. plt.title('Age列的散点图')
  17. plt.show()
复制代码

处理异常值
  1. # 删除异常值
  2. df_no_outliers = df[(df['Age'] >= lower_bound) & (df['Age'] <= upper_bound)]
复制代码
  1. # 用边界值替换异常值(截尾)
  2. df_capped = df.copy()
  3. df_capped['Age'] = np.where(df_capped['Age'] < lower_bound, lower_bound,
  4.                            np.where(df_capped['Age'] > upper_bound, upper_bound, df_capped['Age']))
  5. # 用中位数替换异常值
  6. median_age = df['Age'].median()
  7. df_median_replaced = df.copy()
  8. df_median_replaced['Age'] = np.where((df_median_replaced['Age'] < lower_bound) |
  9.                                    (df_median_replaced['Age'] > upper_bound),
  10.                                    median_age, df_median_replaced['Age'])
复制代码
  1. from scipy import stats
  2. # 计算Z-score
  3. z_scores = np.abs(stats.zscore(df['Age']))
  4. # 定义阈值(通常为3)
  5. threshold = 3
  6. # 找出异常值
  7. outliers = df[z_scores > threshold]
  8. print("使用Z-score方法检测到的异常值:")
  9. print(outliers)
  10. # 删除异常值
  11. df_no_z_outliers = df[z_scores <= threshold]
复制代码

示例:处理异常值
  1. # 创建一个包含异常值的示例数据框
  2. np.random.seed(42)
  3. data = {'Name': ['Tom', 'Nick', 'John', 'Alice', 'Bob', 'Charlie', 'David', 'Eva'],
  4.         'Age': [20, 21, 19, 22, 20, 150, 18, 21],  # 150是一个明显的异常值
  5.         'Score': [85.5, 90.0, 76.5, 88.0, 85.5, 92.0, 79.5, 90.0]}
  6. df = pd.DataFrame(data)
  7. print("原始数据:")
  8. print(df)
  9. # 使用箱线图可视化Age列
  10. plt.figure(figsize=(10, 6))
  11. sns.boxplot(x=df['Age'])
  12. plt.title('Age列的箱线图')
  13. plt.show()
  14. # 使用IQR方法检测异常值
  15. Q1 = df['Age'].quantile(0.25)
  16. Q3 = df['Age'].quantile(0.75)
  17. IQR = Q3 - Q1
  18. lower_bound = Q1 - 1.5 * IQR
  19. upper_bound = Q3 + 1.5 * IQR
  20. outliers = df[(df['Age'] < lower_bound) | (df['Age'] > upper_bound)]
  21. print("\n检测到的异常值:")
  22. print(outliers)
  23. # 用中位数替换异常值
  24. median_age = df['Age'].median()
  25. df_clean = df.copy()
  26. df_clean['Age'] = np.where((df_clean['Age'] < lower_bound) | (df_clean['Age'] > upper_bound),
  27.                           median_age, df_clean['Age'])
  28. print("\n处理异常值后的数据:")
  29. print(df_clean)
复制代码

字符串处理

文本数据清洗是数据预处理的重要组成部分。pandas提供了强大的字符串处理功能,可以帮助我们高效地清洗文本数据。

基本字符串操作
  1. # 转换为小写
  2. df['Name'] = df['Name'].str.lower()
  3. # 转换为大写
  4. df['Name'] = df['Name'].str.upper()
  5. # 首字母大写
  6. df['Name'] = df['Name'].str.title()
  7. # 去除前后空格
  8. df['Name'] = df['Name'].str.strip()
  9. # 去除所有空格
  10. df['Name'] = df['Name'].str.replace(' ', '')
  11. # 替换子字符串
  12. df['Name'] = df['Name'].str.replace('Mr.', 'Mister')
复制代码

高级字符串操作
  1. # 提取数字
  2. df['Numbers'] = df['Text'].str.extract('(\d+)')
  3. # 提取特定模式的文本
  4. df['Email'] = df['Text'].str.extract('([a-zA-Z0-9._%+-]+@[a-zA-Z0-9.-]+\.[a-zA-Z]{2,})')
  5. # 分割字符串
  6. df['First_Name'] = df['Full_Name'].str.split(' ').str[0]
  7. df['Last_Name'] = df['Full_Name'].str.split(' ').str[-1]
  8. # 检查字符串是否包含特定子字符串
  9. df['Has_Mr'] = df['Name'].str.contains('Mr', case=False)
  10. # 检查字符串是否以特定子字符串开头
  11. df['Starts_With_A'] = df['Name'].str.startswith('A')
  12. # 检查字符串是否以特定子字符串结尾
  13. df['Ends_With_E'] = df['Name'].str.endswith('e')
  14. # 计算字符串长度
  15. df['Name_Length'] = df['Name'].str.len()
复制代码

正则表达式应用
  1. # 使用正则表达式进行复杂匹配
  2. # 提取所有大写字母
  3. df['Uppercase'] = df['Text'].str.findall('[A-Z]')
  4. # 提取所有单词
  5. df['Words'] = df['Text'].str.findall('\b\w+\b')
  6. # 替换所有非字母字符
  7. df['Letters_Only'] = df['Text'].str.replace('[^a-zA-Z]', ' ')
  8. # 提取连续的数字
  9. df['Numbers'] = df['Text'].str.extract('(\d+)')
复制代码

示例:清洗文本数据
  1. # 创建一个包含脏文本数据的示例数据框
  2. data = {'Full_Name': ['  Mr. John Doe  ', ' Ms. Jane Smith ', 'Dr. Robert Johnson', 'mrs. Emily Davis'],
  3.         'Email': ['john.doe@example.com', 'jane.smith@example.com', 'invalid-email', 'emily.davis@example.com'],
  4.         'Phone': ['(123) 456-7890', '123.456.7890', '1234567890', '123-456-7890'],
  5.         'Address': ['123 Main St, Anytown, USA', '456 Oak Ave, Somewhere, Canada', '789 Pine Rd, Nowhere, UK', '']}
  6. df = pd.DataFrame(data)
  7. print("原始数据:")
  8. print(df)
  9. # 清洗Full_Name列
  10. df['Full_Name'] = df['Full_Name'].str.strip()  # 去除前后空格
  11. df['Title'] = df['Full_Name'].str.extract('(Mr|Ms|Dr|Mrs)\.', flags=re.IGNORECASE)  # 提取称谓
  12. df['Title'] = df['Title'].str.title()  # 首字母大写
  13. df['First_Name'] = df['Full_Name'].str.split().str[1]  # 提取名字
  14. df['Last_Name'] = df['Full_Name'].str.split().str[2]  # 提取姓氏
  15. # 清洗Email列
  16. df['Valid_Email'] = df['Email'].str.contains('[a-zA-Z0-9._%+-]+@[a-zA-Z0-9.-]+\.[a-zA-Z]{2,}', regex=True)
  17. # 清洗Phone列
  18. df['Phone'] = df['Phone'].str.replace('[^\d]', '', regex=True)  # 移除非数字字符
  19. df['Phone'] = df['Phone'].str.replace('^(\d{3})(\d{3})(\d{4})$', r'(\1) \2-\3', regex=True)  # 格式化为(123) 456-7890
  20. # 清洗Address列
  21. df['Address'] = df['Address'].replace('', np.nan)  # 将空字符串替换为NaN
  22. print("\n清洗后的数据:")
  23. print(df[['Title', 'First_Name', 'Last_Name', 'Email', 'Valid_Email', 'Phone', 'Address']])
复制代码

数据转换

数据转换是数据清洗过程中的重要环节,包括标准化、归一化、编码分类变量等操作,使数据适合于分析和建模。

标准化和归一化

标准化将数据转换为均值为0,标准差为1的分布。
  1. from sklearn.preprocessing import StandardScaler
  2. # 创建标准化器
  3. scaler = StandardScaler()
  4. # 标准化数值列
  5. df['Age_Standardized'] = scaler.fit_transform(df[['Age']])
  6. # 或者手动计算
  7. df['Age_Standardized_Manual'] = (df['Age'] - df['Age'].mean()) / df['Age'].std()
复制代码

归一化将数据缩放到[0, 1]区间。
  1. from sklearn.preprocessing import MinMaxScaler
  2. # 创建归一化器
  3. scaler = MinMaxScaler()
  4. # 归一化数值列
  5. df['Age_Normalized'] = scaler.fit_transform(df[['Age']])
  6. # 或者手动计算
  7. df['Age_Normalized_Manual'] = (df['Age'] - df['Age'].min()) / (df['Age'].max() - df['Age'].min())
复制代码

编码分类变量

标签编码将每个类别映射到一个整数。
  1. from sklearn.preprocessing import LabelEncoder
  2. # 创建标签编码器
  3. le = LabelEncoder()
  4. # 对分类列进行标签编码
  5. df['Gender_Encoded'] = le.fit_transform(df['Gender'])
  6. # 或者使用pandas的factorize方法
  7. df['Gender_Encoded'] = pd.factorize(df['Gender'])[0]
复制代码

独热编码为每个类别创建一个新的二进制列。
  1. # 使用pandas的get_dummies方法
  2. one_hot = pd.get_dummies(df['Gender'], prefix='Gender')
  3. df = pd.concat([df, one_hot], axis=1)
  4. # 或者使用sklearn的OneHotEncoder
  5. from sklearn.preprocessing import OneHotEncoder
  6. # 创建独热编码器
  7. encoder = OneHotEncoder(sparse=False)
  8. # 对分类列进行独热编码
  9. one_hot = encoder.fit_transform(df[['Gender']])
  10. # 创建DataFrame
  11. one_hot_df = pd.DataFrame(one_hot, columns=encoder.get_feature_names(['Gender']))
  12. # 合并到原始DataFrame
  13. df = pd.concat([df, one_hot_df], axis=1)
复制代码

分箱(Binning)

分箱是将连续变量转换为分类变量的过程。
  1. # 等宽分箱
  2. df['Age_Bin'] = pd.cut(df['Age'], bins=3, labels=['Young', 'Middle', 'Old'])
  3. # 等频分箱
  4. df['Age_Bin'] = pd.qcut(df['Age'], q=3, labels=['Young', 'Middle', 'Old'])
  5. # 自定义分箱
  6. bins = [0, 18, 35, 60, 100]
  7. labels = ['Child', 'Young Adult', 'Adult', 'Senior']
  8. df['Age_Bin'] = pd.cut(df['Age'], bins=bins, labels=labels)
复制代码

特征工程
  1. # 从日期特征中提取年、月、日
  2. df['Year'] = df['Date'].dt.year
  3. df['Month'] = df['Date'].dt.month
  4. df['Day'] = df['Date'].dt.day
  5. df['DayOfWeek'] = df['Date'].dt.dayofweek
  6. # 从文本特征中提取信息
  7. df['Name_Length'] = df['Name'].str.len()
  8. df['Name_Words'] = df['Name'].str.split().str.len()
  9. # 创建交互特征
  10. df['Age_Score_Interaction'] = df['Age'] * df['Score']
复制代码
  1. # 对数变换(常用于处理偏态分布)
  2. df['Age_Log'] = np.log(df['Age'])
  3. # 平方根变换
  4. df['Age_Sqrt'] = np.sqrt(df['Age'])
  5. # 平方变换
  6. df['Age_Squared'] = df['Age'] ** 2
复制代码

示例:数据转换
  1. # 创建一个示例数据框
  2. data = {'Name': ['Tom', 'Nick', 'John', 'Alice', 'Bob'],
  3.         'Age': [20, 21, 19, 22, 20],
  4.         'Gender': ['Male', 'Male', 'Male', 'Female', 'Male'],
  5.         'Score': [85.5, 90.0, 76.5, 88.0, 85.5],
  6.         'Date': ['2021-01-01', '2021-02-01', '2021-03-01', '2021-04-01', '2021-05-01']}
  7. df = pd.DataFrame(data)
  8. # 转换日期列
  9. df['Date'] = pd.to_datetime(df['Date'])
  10. print("原始数据:")
  11. print(df)
  12. # 标准化Age列
  13. df['Age_Standardized'] = (df['Age'] - df['Age'].mean()) / df['Age'].std()
  14. # 归一化Score列
  15. df['Score_Normalized'] = (df['Score'] - df['Score'].min()) / (df['Score'].max() - df['Score'].min())
  16. # 对Gender列进行独热编码
  17. one_hot = pd.get_dummies(df['Gender'], prefix='Gender')
  18. df = pd.concat([df, one_hot], axis=1)
  19. # 从Date列提取特征
  20. df['Year'] = df['Date'].dt.year
  21. df['Month'] = df['Date'].dt.month
  22. df['Day'] = df['Date'].dt.day
  23. df['DayOfWeek'] = df['Date'].dt.dayofweek
  24. # 创建Age的分箱
  25. df['Age_Bin'] = pd.cut(df['Age'], bins=[0, 18, 25, 100], labels=['Teen', 'Young Adult', 'Adult'])
  26. # 创建交互特征
  27. df['Age_Score_Interaction'] = df['Age'] * df['Score']
  28. print("\n转换后的数据:")
  29. print(df)
复制代码

实战案例:一个完整的数据清洗示例

让我们通过一个完整的例子来应用我们学到的数据清洗技能。我们将使用一个模拟的电子商务数据集,该数据集包含客户信息、订单详情和产品信息。

1. 加载数据并初步检查
  1. # 创建模拟数据
  2. np.random.seed(42)
  3. # 客户数据
  4. customers = pd.DataFrame({
  5.     'CustomerID': range(1, 1001),
  6.     'Name': [f'Customer_{i}' for i in range(1, 1001)],
  7.     'Age': np.random.randint(18, 70, 1000),
  8.     'Gender': np.random.choice(['Male', 'Female', 'Other'], 1000),
  9.     'Email': [f'customer{i}@example.com' for i in range(1, 1001)],
  10.     'RegistrationDate': pd.date_range('2020-01-01', periods=1000, freq='D')
  11. })
  12. # 订单数据
  13. orders = pd.DataFrame({
  14.     'OrderID': range(1, 2001),
  15.     'CustomerID': np.random.randint(1, 1001, 2000),
  16.     'OrderDate': pd.date_range('2021-01-01', periods=2000, freq='6H'),
  17.     'ProductID': np.random.randint(1, 101, 2000),
  18.     'Quantity': np.random.randint(1, 10, 2000),
  19.     'Price': np.round(np.random.uniform(10, 500, 2000), 2)
  20. })
  21. # 产品数据
  22. products = pd.DataFrame({
  23.     'ProductID': range(1, 101),
  24.     'ProductName': [f'Product_{i}' for i in range(1, 101)],
  25.     'Category': np.random.choice(['Electronics', 'Clothing', 'Books', 'Home', 'Sports'], 100),
  26.     'Description': [f'Description for Product_{i}' for i in range(1, 101)]
  27. })
  28. # 引入一些数据质量问题
  29. # 在customers中引入一些缺失值
  30. customers.loc[np.random.choice(customers.index, 50, replace=False), 'Age'] = np.nan
  31. customers.loc[np.random.choice(customers.index, 30, replace=False), 'Gender'] = np.nan
  32. # 在orders中引入一些重复行
  33. orders = pd.concat([orders, orders.sample(50)], ignore_index=True)
  34. # 在orders中引入一些异常值
  35. orders.loc[np.random.choice(orders.index, 20, replace=False), 'Price'] = np.random.uniform(1000, 5000, 20)
  36. orders.loc[np.random.choice(orders.index, 10, replace=False), 'Quantity'] = np.random.randint(50, 100, 10)
  37. # 在products中引入一些不一致的产品名称
  38. products.loc[np.random.choice(products.index, 10, replace=False), 'ProductName'] = products.loc[np.random.choice(products.index, 10, replace=False), 'ProductName'].str.lower()
  39. # 保存数据到CSV文件
  40. customers.to_csv('customers.csv', index=False)
  41. orders.to_csv('orders.csv', index=False)
  42. products.to_csv('products.csv', index=False)
复制代码
  1. # 加载数据
  2. customers = pd.read_csv('customers.csv')
  3. orders = pd.read_csv('orders.csv')
  4. products = pd.read_csv('products.csv')
  5. # 初步检查
  6. print("Customers数据维度:", customers.shape)
  7. print("\nCustomers前5行:")
  8. print(customers.head())
  9. print("\nCustomers数据信息:")
  10. customers.info()
  11. print("\nOrders数据维度:", orders.shape)
  12. print("\nOrders前5行:")
  13. print(orders.head())
  14. print("\nOrders数据信息:")
  15. orders.info()
  16. print("\nProducts数据维度:", products.shape)
  17. print("\nProducts前5行:")
  18. print(products.head())
  19. print("\nProducts数据信息:")
  20. products.info()
复制代码

2. 清洗Customers数据
  1. # 处理缺失值
  2. print("\nCustomers缺失值统计:")
  3. print(customers.isnull().sum())
  4. # 用中位数填充Age的缺失值
  5. customers['Age'].fillna(customers['Age'].median(), inplace=True)
  6. # 用众数填充Gender的缺失值
  7. customers['Gender'].fillna(customers['Gender'].mode()[0], inplace=True)
  8. # 检查处理后的缺失值
  9. print("\n处理后的Customers缺失值统计:")
  10. print(customers.isnull().sum())
  11. # 处理日期列
  12. customers['RegistrationDate'] = pd.to_datetime(customers['RegistrationDate'])
  13. # 检查重复值
  14. print("\nCustomers重复行数量:", customers.duplicated().sum())
  15. # 标准化Name列
  16. customers['Name'] = customers['Name'].str.title()
  17. # 验证Email格式
  18. import re
  19. email_pattern = r'^[a-zA-Z0-9._%+-]+@[a-zA-Z0-9.-]+\.[a-zA-Z]{2,}$'
  20. customers['ValidEmail'] = customers['Email'].str.match(email_pattern)
  21. # 检查清洗后的数据
  22. print("\n清洗后的Customers数据:")
  23. print(customers.head())
  24. print("\nCustomers数据信息:")
  25. customers.info()
复制代码

3. 清洗Orders数据
  1. # 处理重复值
  2. print("\nOrders重复行数量:", orders.duplicated().sum())
  3. # 删除重复行
  4. orders.drop_duplicates(inplace=True)
  5. # 检查处理后的重复值
  6. print("\n处理后的Orders重复行数量:", orders.duplicated().sum())
  7. # 处理日期列
  8. orders['OrderDate'] = pd.to_datetime(orders['OrderDate'])
  9. # 检查异常值
  10. # 使用箱线图检查Price列
  11. plt.figure(figsize=(10, 6))
  12. sns.boxplot(x=orders['Price'])
  13. plt.title('Price列的箱线图')
  14. plt.show()
  15. # 使用箱线图检查Quantity列
  16. plt.figure(figsize=(10, 6))
  17. sns.boxplot(x=orders['Quantity'])
  18. plt.title('Quantity列的箱线图')
  19. plt.show()
  20. # 使用IQR方法处理Price列的异常值
  21. Q1 = orders['Price'].quantile(0.25)
  22. Q3 = orders['Price'].quantile(0.75)
  23. IQR = Q3 - Q1
  24. lower_bound = Q1 - 1.5 * IQR
  25. upper_bound = Q3 + 1.5 * IQR
  26. print(f"\nPrice列的异常值边界: {lower_bound:.2f} - {upper_bound:.2f}")
  27. price_outliers = orders[(orders['Price'] < lower_bound) | (orders['Price'] > upper_bound)]
  28. print(f"Price列的异常值数量: {len(price_outliers)}")
  29. # 用边界值替换Price列的异常值
  30. orders['Price'] = np.where(orders['Price'] < lower_bound, lower_bound,
  31.                           np.where(orders['Price'] > upper_bound, upper_bound, orders['Price']))
  32. # 使用IQR方法处理Quantity列的异常值
  33. Q1 = orders['Quantity'].quantile(0.25)
  34. Q3 = orders['Quantity'].quantile(0.75)
  35. IQR = Q3 - Q1
  36. lower_bound = Q1 - 1.5 * IQR
  37. upper_bound = Q3 + 1.5 * IQR
  38. print(f"\nQuantity列的异常值边界: {lower_bound:.2f} - {upper_bound:.2f}")
  39. quantity_outliers = orders[(orders['Quantity'] < lower_bound) | (orders['Quantity'] > upper_bound)]
  40. print(f"Quantity列的异常值数量: {len(quantity_outliers)}")
  41. # 用边界值替换Quantity列的异常值
  42. orders['Quantity'] = np.where(orders['Quantity'] < lower_bound, lower_bound,
  43.                             np.where(orders['Quantity'] > upper_bound, upper_bound, orders['Quantity']))
  44. # 创建TotalAmount列
  45. orders['TotalAmount'] = orders['Quantity'] * orders['Price']
  46. # 检查清洗后的数据
  47. print("\n清洗后的Orders数据:")
  48. print(orders.head())
  49. print("\nOrders数据信息:")
  50. orders.info()
复制代码

4. 清洗Products数据
  1. # 标准化ProductName列
  2. products['ProductName'] = products['ProductName'].str.title()
  3. # 检查重复值
  4. print("\nProducts重复行数量:", products.duplicated().sum())
  5. # 检查ProductID是否唯一
  6. print("\nProductID是否唯一:", products['ProductID'].is_unique)
  7. # 检查Category列的唯一值
  8. print("\nCategory列的唯一值:")
  9. print(products['Category'].value_counts())
  10. # 标准化Category列
  11. products['Category'] = products['Category'].str.title()
  12. # 检查清洗后的数据
  13. print("\n清洗后的Products数据:")
  14. print(products.head())
  15. print("\nProducts数据信息:")
  16. products.info())
复制代码

5. 合并数据集
  1. # 合并orders和customers
  2. order_customer = pd.merge(orders, customers, on='CustomerID', how='left')
  3. # 合并order_customer和products
  4. full_data = pd.merge(order_customer, products, on='ProductID', how='left')
  5. # 检查合并后的数据
  6. print("\n合并后的数据维度:", full_data.shape)
  7. print("\n合并后的数据前5行:")
  8. print(full_data.head())
  9. print("\n合并后的数据信息:")
  10. full_data.info())
  11. # 检查合并后的缺失值
  12. print("\n合并后的缺失值统计:")
  13. print(full_data.isnull().sum())
复制代码

6. 特征工程和数据分析
  1. # 从OrderDate提取特征
  2. full_data['OrderYear'] = full_data['OrderDate'].dt.year
  3. full_data['OrderMonth'] = full_data['OrderDate'].dt.month
  4. full_data['OrderDay'] = full_data['OrderDate'].dt.day
  5. full_data['OrderDayOfWeek'] = full_data['OrderDate'].dt.dayofweek
  6. full_data['OrderHour'] = full_data['OrderDate'].dt.hour
  7. # 从RegistrationDate提取特征
  8. full_data['RegistrationYear'] = full_data['RegistrationDate'].dt.year
  9. full_data['RegistrationMonth'] = full_data['RegistrationDate'].dt.month
  10. # 计算客户年龄(基于注册日期)
  11. full_data['AgeAtRegistration'] = full_data['RegistrationYear'] - full_data['Age']
  12. # 创建Age分箱
  13. full_data['AgeGroup'] = pd.cut(full_data['Age'], bins=[0, 25, 35, 50, 100], labels=['18-25', '26-35', '36-50', '50+'])
  14. # 创建Price分箱
  15. full_data['PriceRange'] = pd.cut(full_data['Price'], bins=[0, 50, 100, 200, 500], labels=['0-50', '51-100', '101-200', '201-500'])
  16. # 检查特征工程后的数据
  17. print("\n特征工程后的数据:")
  18. print(full_data.head())
  19. # 分析不同性别的购买行为
  20. gender_analysis = full_data.groupby('Gender').agg({
  21.     'TotalAmount': ['mean', 'sum', 'count'],
  22.     'Quantity': 'mean'
  23. })
  24. print("\n不同性别的购买行为分析:")
  25. print(gender_analysis)
  26. # 分析不同年龄组的购买行为
  27. age_analysis = full_data.groupby('AgeGroup').agg({
  28.     'TotalAmount': ['mean', 'sum', 'count'],
  29.     'Quantity': 'mean'
  30. })
  31. print("\n不同年龄组的购买行为分析:")
  32. print(age_analysis)
  33. # 分析不同产品类别的销售情况
  34. category_analysis = full_data.groupby('Category').agg({
  35.     'TotalAmount': ['mean', 'sum', 'count'],
  36.     'Quantity': 'mean'
  37. })
  38. print("\n不同产品类别的销售情况分析:")
  39. print(category_analysis)
  40. # 分析不同时间段的销售情况
  41. month_analysis = full_data.groupby('OrderMonth').agg({
  42.     'TotalAmount': ['mean', 'sum', 'count'],
  43.     'Quantity': 'mean'
  44. })
  45. print("\n不同月份的销售情况分析:")
  46. print(month_analysis)
  47. # 可视化分析
  48. # 不同性别的总销售额
  49. plt.figure(figsize=(10, 6))
  50. sns.barplot(x=full_data['Gender'], y=full_data['TotalAmount'], estimator=sum)
  51. plt.title('不同性别的总销售额')
  52. plt.show()
  53. # 不同年龄组的总销售额
  54. plt.figure(figsize=(10, 6))
  55. sns.barplot(x=full_data['AgeGroup'], y=full_data['TotalAmount'], estimator=sum)
  56. plt.title('不同年龄组的总销售额')
  57. plt.show()
  58. # 不同产品类别的总销售额
  59. plt.figure(figsize=(10, 6))
  60. sns.barplot(x=full_data['Category'], y=full_data['TotalAmount'], estimator=sum)
  61. plt.title('不同产品类别的总销售额')
  62. plt.show()
  63. # 不同月份的总销售额
  64. plt.figure(figsize=(10, 6))
  65. sns.barplot(x=full_data['OrderMonth'], y=full_data['TotalAmount'], estimator=sum)
  66. plt.title('不同月份的总销售额')
  67. plt.show()
复制代码

总结与最佳实践

通过本教程,我们系统地学习了使用pandas进行数据清洗的各种技能,从处理缺失值、重复值,到数据类型转换、异常值处理,再到字符串处理和数据转换。最后,我们通过一个完整的实战案例,将这些技能应用到实际的数据清洗和分析过程中。

数据清洗的最佳实践

1. 了解你的数据:在开始清洗之前,先通过描述性统计和可视化方法深入了解数据的特征和问题。
2. 制定清洗策略:根据数据的特点和分析目标,制定合适的数据清洗策略。不是所有的缺失值都需要填充,不是所有的异常值都需要处理。
3. 记录清洗过程:记录每一步清洗操作,以便于回溯和复现。可以考虑使用函数或类来封装清洗逻辑。
4. 保持原始数据:在清洗数据时,最好保留原始数据的副本,以便在需要时进行比较或回滚。
5. 验证清洗结果:每完成一步清洗操作,都要验证结果是否符合预期。
6. 自动化清洗流程:对于需要定期处理的数据,考虑将清洗流程自动化,提高工作效率。

了解你的数据:在开始清洗之前,先通过描述性统计和可视化方法深入了解数据的特征和问题。

制定清洗策略:根据数据的特点和分析目标,制定合适的数据清洗策略。不是所有的缺失值都需要填充,不是所有的异常值都需要处理。

记录清洗过程:记录每一步清洗操作,以便于回溯和复现。可以考虑使用函数或类来封装清洗逻辑。

保持原始数据:在清洗数据时,最好保留原始数据的副本,以便在需要时进行比较或回滚。

验证清洗结果:每完成一步清洗操作,都要验证结果是否符合预期。

自动化清洗流程:对于需要定期处理的数据,考虑将清洗流程自动化,提高工作效率。

提高数据清洗效率的技巧

1. 使用向量化操作:pandas的向量化操作比循环更高效,尽量使用内置的向量化函数。
2. 使用apply函数:对于复杂的列操作,可以使用apply函数,它比循环更高效。
3. 使用链式操作:pandas支持方法链,可以将多个操作链接在一起,使代码更简洁高效。
4. 使用适当的数据结构:根据数据的特点选择合适的数据结构,例如对于分类数据使用category类型可以节省内存。
5. 并行处理:对于大型数据集,可以考虑使用并行处理技术,如Dask或Modin。

使用向量化操作:pandas的向量化操作比循环更高效,尽量使用内置的向量化函数。

使用apply函数:对于复杂的列操作,可以使用apply函数,它比循环更高效。

使用链式操作:pandas支持方法链,可以将多个操作链接在一起,使代码更简洁高效。

使用适当的数据结构:根据数据的特点选择合适的数据结构,例如对于分类数据使用category类型可以节省内存。

并行处理:对于大型数据集,可以考虑使用并行处理技术,如Dask或Modin。

持续学习

数据清洗是一个不断学习和实践的过程。随着数据处理需求的不断变化,新的工具和技术也在不断涌现。保持学习的态度,关注最新的数据处理技术和最佳实践,将帮助你更高效地应对各种数据清洗挑战。

希望本教程能帮助你掌握pandas数据清洗的基本技能,为你的数据分析工作打下坚实的基础。记住,数据清洗是数据分析过程中不可或缺的一步,掌握好这项技能,将大大提高你的工作效率和分析结果的可靠性。
「七転び八起き(ななころびやおき)」
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

加入Discord频道

加入Discord频道

加入QQ社群

加入QQ社群

联系我们|小黑屋|TG频道|RSS |网站地图

Powered by Pixtech

© 2025-2026 Pixtech Team.