如何根据列值从数据帧中选择行?1. 布尔索引2. 位置索引3. 标签索引4. df.query() API

2022-09-05 00:45:07

如何根据 Pandas 中某列中的值从 中选择行?DataFrame

在SQL中,我会使用:

SELECT *
FROM table
WHERE column_name = some_value

答案 1

要选择列值等于标量的行,请使用:some_value==

df.loc[df['column_name'] == some_value]

要选择列值处于可迭代状态的行,请使用:some_valuesisin

df.loc[df['column_name'].isin(some_values)]

将多个条件与以下条件相结合:&

df.loc[(df['column_name'] >= A) & (df['column_name'] <= B)]

请注意括号。由于 Python 的运算符优先规则,绑定比 和 更紧密。因此,最后一个示例中的括号是必需的。不带括号&<=>=

df['column_name'] >= A & df['column_name'] <= B

被解析为

df['column_name'] >= (A & df['column_name']) <= B

这会导致序列的真值是模棱两可的错误


要选择列值不相等的行,请使用:some_value!=

df.loc[df['column_name'] != some_value]

isin返回一个布尔序列,因此要选择值不在 中的行,请使用以下命令否定布尔序列:some_values~

df.loc[~df['column_name'].isin(some_values)]

例如

import pandas as pd
import numpy as np
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
                   'B': 'one one two three two two one three'.split(),
                   'C': np.arange(8), 'D': np.arange(8) * 2})
print(df)
#      A      B  C   D
# 0  foo    one  0   0
# 1  bar    one  1   2
# 2  foo    two  2   4
# 3  bar  three  3   6
# 4  foo    two  4   8
# 5  bar    two  5  10
# 6  foo    one  6  12
# 7  foo  three  7  14

print(df.loc[df['A'] == 'foo'])

收益 率

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

如果要包含多个值,请将它们放在列表中(或者更一般地说,任何可迭代的值),然后使用:isin

print(df.loc[df['B'].isin(['one','three'])])

收益 率

     A      B  C   D
0  foo    one  0   0
1  bar    one  1   2
3  bar  three  3   6
6  foo    one  6  12
7  foo  three  7  14

但是,请注意,如果您希望多次执行此操作,则首先创建索引,然后使用 :df.loc

df = df.set_index(['B'])
print(df.loc['one'])

收益 率

       A  C   D
B              
one  foo  0   0
one  bar  1   2
one  foo  6  12

或者,要包含索引中的多个值,请使用:df.index.isin

df.loc[df.index.isin(['one','two'])]

收益 率

       A  C   D
B              
one  foo  0   0
one  bar  1   2
two  foo  2   4
two  foo  4   8
two  bar  5  10
one  foo  6  12

答案 2

有几种方法可以从 Pandas 数据帧中选择行:

  1. 布尔索引 (df[df['col'] == value] )
  2. 位置索引 (df.iloc[...]
  3. 标签索引 (df.xs(...)
  4. df.query(...)应用程序接口

下面我将向您展示每个示例,并建议何时使用某些技术。假设我们的标准是列'A' == 'foo'

(关于性能的注意事项:对于每种基本类型,我们可以通过使用Pandas API来保持简单,或者我们可以冒险在API之外,通常进入NumPy,并加快速度。


设置

我们需要做的第一件事是确定一个条件,该条件将作为我们选择行的标准。我们将从OP的情况开始,并包括一些其他常见的用例。column_name == some_value

从@unutbu借款:

import pandas as pd, numpy as np

df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
                   'B': 'one one two three two two one three'.split(),
                   'C': np.arange(8), 'D': np.arange(8) * 2})

1. 布尔索引

...布尔索引需要找到每行列的真实值等于 ,然后使用这些真值来确定要保留的行。通常,我们将此系列命名为真值数组。我们也会在这里这样做。'A''foo'mask

mask = df['A'] == 'foo'

然后,我们可以使用此掩码对数据框进行切片或索引

df[mask]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

这是完成此任务的最简单方法之一,如果性能或直观性不是问题,则应选择此方法。但是,如果性能是一个问题,那么您可能需要考虑另一种创建 .mask


2. 位置索引

位置索引 () 有其用例,但这不是其中之一。为了确定切片的位置,我们首先需要执行与上面相同的布尔分析。这让我们执行一个额外的步骤来完成相同的任务。df.iloc[...]

mask = df['A'] == 'foo'
pos = np.flatnonzero(mask)
df.iloc[pos]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

3. 标签索引

标签索引可能非常方便,但在这种情况下,我们再次做了更多的工作,没有好处

df.set_index('A', append=True, drop=False).xs('foo', level=1)

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

4. df.query() API

pd.DataFrame.query是执行此任务的一种非常优雅/直观的方式,但通常速度较慢。但是,如果您注意以下计时,对于大数据,查询非常有效。比标准方法更重要,而且与我的最佳建议类似。

df.query('A == "foo"')

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

我的偏好是使用Boolean mask

可以通过修改我们创建.Booleanmask

掩码备选方案 1 使用底层 NumPy 数组,并放弃创建另一个 pd 的开销。系列

mask = df['A'].values == 'foo'

最后,我将展示更完整的时间测试,但只需看一下我们使用示例数据帧获得的性能提升。首先,我们来看看创建mask

%timeit mask = df['A'].values == 'foo'
%timeit mask = df['A'] == 'foo'

5.84 µs ± 195 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
166 µs ± 4.45 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

使用NumPy数组评估的速度快了约30倍。这部分是由于NumPy评估通常更快。部分原因还在于缺乏构建索引和相应对象所需的开销。maskpd.Series

接下来,我们将看看用一个与另一个进行切片的时间。mask

mask = df['A'].values == 'foo'
%timeit df[mask]
mask = df['A'] == 'foo'
%timeit df[mask]

219 µs ± 12.3 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
239 µs ± 7.03 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

性能提升并不明显。我们将看看这是否适用于更强大的测试。


口罩替代品2我们也可以重建数据帧。在重建数据帧时有一个很大的警告 - 您必须在这样做时注意!dtypes

而不是我们将这样做df[mask]

pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)

如果数据框是混合类型(我们的示例是),那么当我们得到结果数组时,因此,新数据框的所有列都将是 。因此需要并扼杀任何潜在的性能增益。df.valuesdtypeobjectdtypeobjectastype(df.dtypes)

%timeit df[m]
%timeit pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)

216 µs ± 10.4 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
1.43 ms ± 39.6 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

但是,如果数据框不是混合类型,这是一种非常有用的方法。

鉴于

np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))

d1

   A  B  C  D  E
0  0  2  7  3  8
1  7  0  6  8  6
2  0  2  0  4  9
3  7  3  2  4  3
4  3  6  7  7  4
5  5  3  7  5  9
6  8  7  6  4  7
7  6  2  6  6  5
8  2  8  7  5  8
9  4  7  6  1  5

%%timeit
mask = d1['A'].values == 7
d1[mask]

179 µs ± 8.73 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

%%timeit
mask = d1['A'].values == 7
pd.DataFrame(d1.values[mask], d1.index[mask], d1.columns)

87 µs ± 5.12 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

我们将时间缩短了一半。


掩膜替代方案 3

@unutbu还向我们展示了如何使用来解释一组值中的每个元素。如果我们的值集是一个值的集合,即.但它也概括为在需要时包括更大的值集。事实证明,即使这是一个更通用的解决方案,这仍然非常快。唯一真正的损失是那些不熟悉这个概念的人的直观性。pd.Series.isindf['A']'foo'

mask = df['A'].isin(['foo'])
df[mask]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

但是,与以前一样,我们可以利用NumPy来提高性能,同时几乎不牺牲任何东西。我们将使用np.in1d

mask = np.in1d(df['A'].values, ['foo'])
df[mask]

     A      B  C   D
0  foo    one  0   0
2  foo    two  2   4
4  foo    two  4   8
6  foo    one  6  12
7  foo  three  7  14

定时

我将包括其他帖子中提到的其他概念以供参考。

以下代码

此表中的每一列都表示一个不同长度的数据帧,我们用它来测试每个函数。每列显示所花费的相对时间,给定基本索引为 的最快函数。1.0

res.div(res.min())

                         10        30        100       300       1000      3000      10000     30000
mask_standard         2.156872  1.850663  2.034149  2.166312  2.164541  3.090372  2.981326  3.131151
mask_standard_loc     1.879035  1.782366  1.988823  2.338112  2.361391  3.036131  2.998112  2.990103
mask_with_values      1.010166  1.000000  1.005113  1.026363  1.028698  1.293741  1.007824  1.016919
mask_with_values_loc  1.196843  1.300228  1.000000  1.000000  1.038989  1.219233  1.037020  1.000000
query                 4.997304  4.765554  5.934096  4.500559  2.997924  2.397013  1.680447  1.398190
xs_label              4.124597  4.272363  5.596152  4.295331  4.676591  5.710680  6.032809  8.950255
mask_with_isin        1.674055  1.679935  1.847972  1.724183  1.345111  1.405231  1.253554  1.264760
mask_with_in1d        1.000000  1.083807  1.220493  1.101929  1.000000  1.000000  1.000000  1.144175

您会注意到,最快的时间似乎在 和 之间共享。mask_with_valuesmask_with_in1d

res.T.plot(loglog=True)

Enter image description here

功能

def mask_standard(df):
    mask = df['A'] == 'foo'
    return df[mask]

def mask_standard_loc(df):
    mask = df['A'] == 'foo'
    return df.loc[mask]

def mask_with_values(df):
    mask = df['A'].values == 'foo'
    return df[mask]

def mask_with_values_loc(df):
    mask = df['A'].values == 'foo'
    return df.loc[mask]

def query(df):
    return df.query('A == "foo"')

def xs_label(df):
    return df.set_index('A', append=True, drop=False).xs('foo', level=-1)

def mask_with_isin(df):
    mask = df['A'].isin(['foo'])
    return df[mask]

def mask_with_in1d(df):
    mask = np.in1d(df['A'].values, ['foo'])
    return df[mask]

测试

res = pd.DataFrame(
    index=[
        'mask_standard', 'mask_standard_loc', 'mask_with_values', 'mask_with_values_loc',
        'query', 'xs_label', 'mask_with_isin', 'mask_with_in1d'
    ],
    columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],
    dtype=float
)

for j in res.columns:
    d = pd.concat([df] * j, ignore_index=True)
    for i in res.index:a
        stmt = '{}(d)'.format(i)
        setp = 'from __main__ import d, {}'.format(i)
        res.at[i, j] = timeit(stmt, setp, number=50)

特殊时间

看看当我们有一个用于整个数据帧的单个非对象时的特殊情况。dtype

以下代码

spec.div(spec.min())

                     10        30        100       300       1000      3000      10000     30000
mask_with_values  1.009030  1.000000  1.194276  1.000000  1.236892  1.095343  1.000000  1.000000
mask_with_in1d    1.104638  1.094524  1.156930  1.072094  1.000000  1.000000  1.040043  1.027100
reconstruct       1.000000  1.142838  1.000000  1.355440  1.650270  2.222181  2.294913  3.406735

事实证明,重建不值得超过几百行。

spec.T.plot(loglog=True)

Enter image description here

功能

np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))

def mask_with_values(df):
    mask = df['A'].values == 'foo'
    return df[mask]

def mask_with_in1d(df):
    mask = np.in1d(df['A'].values, ['foo'])
    return df[mask]

def reconstruct(df):
    v = df.values
    mask = np.in1d(df['A'].values, ['foo'])
    return pd.DataFrame(v[mask], df.index[mask], df.columns)

spec = pd.DataFrame(
    index=['mask_with_values', 'mask_with_in1d', 'reconstruct'],
    columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],
    dtype=float
)

测试

for j in spec.columns:
    d = pd.concat([df] * j, ignore_index=True)
    for i in spec.index:
        stmt = '{}(d)'.format(i)
        setp = 'from __main__ import d, {}'.format(i)
        spec.at[i, j] = timeit(stmt, setp, number=50)