当前位置: 首页 > 网络编程 > python

Pandas之pandas DataFrame iterrows详解<

时间:2025-07-01 21:06:21 python 我要投稿
这篇文章主要介绍了Pandas之pandas DataFrame iterrows,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教

Pandas2.2 DataFrame

Indexing, iteration

方法描述
DataFrame.head([n])用于返回 DataFrame 的前几行
DataFrame.at快速访问和修改 DataFrame 中单个值的方法
DataFrame.iat快速访问和修改 DataFrame 中单个值的方法
DataFrame.loc用于基于标签(行标签和列标签)来访问和修改 DataFrame 中的数据
DataFrame.iloc用于基于整数位置(行号和列号)来访问和修改 DataFrame 中的数据
DataFrame.insert(loc, column, value[, …])用于在 DataFrame 的指定位置插入一个新的列
DataFrame.iter()用于迭代 DataFrame 的列名
DataFrame.items()用于迭代 DataFrame 的列名和列数据
DataFrame.keys()返回 DataFrame 的列名
DataFrame.iterrows()用于逐行迭代 DataFrame

pandas.DataFrame.iterrows()

pandas.DataFrame.iterrows() 方法用于逐行迭代 DataFrame,每次迭代返回一个包含行索引和行数据的元组。

行数据以 Series 对象的形式返回,其中索引是列名,值是该行对应列的值。

  • 语法:
for index, row in DataFrame.iterrows():
    # 处理行索引和行数据
  • 示例:

假设我们有一个 DataFrame 如下:

import pandas as pd

data = {
    'A': [1, 2, 3],
    'B': [4, 5, 6],
    'C': [7, 8, 9]
}

df = pd.DataFrame(data, index=['row1', 'row2', 'row3'])
print(df)

输出:

       A  B  C
row1   1  4  7
row2   2  5  8
row3   3  6  9

迭代行索引和行数据

使用 iterrows() 方法逐行迭代 DataFrame:

for index, row in df.iterrows():
    print(f"Index: {index}")
    print(f"Row: {row}")
    print()

输出:

Index: row1
Row: A    1
B    4
C    7
Name: row1, dtype: int64

Index: row2
Row: A    2
B    5
C    8
Name: row2, dtype: int64

Index: row3
Row: A    3
B    6
C    9
Name: row3, dtype: int64

访问特定列的值

在迭代行数据时,访问特定列的值:

for index, row in df.iterrows():
    print(f"Index: {index}, A: {row['A']}, B: {row['B']}, C: {row['C']}")

输出:

Index: row1, A: 1, B: 4, C: 7
Index: row2, A: 2, B: 5, C: 8
Index: row3, A: 3, B: 6, C: 9

注意事项:

  1. 性能问题: iterrows() 在处理大型 DataFrame 时性能较差,因为它会将每一行转换为 Series 对象,这会导致额外的开销。对于性能敏感的操作,建议使用 itertuples() 或向量化操作。
  2. 修改数据: 在迭代过程中修改 DataFrame 的数据可能会导致不可预测的结果。如果需要修改数据,建议先创建一个副本或使用其他方法。

总结

pandas.DataFrame.iterrows() 方法提供了一种逐行迭代 DataFrame 的方式,每次迭代返回一个包含行索引和行数据的元组。

虽然使用方便,但在处理大型数据集时需要注意性能问题。对于需要逐行处理数据的场景,iterrows() 是一个有用的工具。

以上为个人经验,希望能给大家一个参考,也希望大家多多支持本站。