当 Pandas 发现它的最大 RAM 限制时,它会冻结并终止进程,因此不会降低性能,只是一个 SIGKILL 信号完全停止进程。处理速度与 CPU 和 RAM 速度(即 DDR3 与 DDR4、延迟、SSD vd HDD 等)有更多关系。
Pandas 有严格的内存限制,但如果您需要处理大型数据集,除了增加 RAM 之外,还有其他选择。
1.-达斯克
以下是 dask 的某些限制。
- Dask 不能在单个任务中并行化。
- 作为分布式计算框架,dask 支持远程执行任意代码。所以 dask 工作人员应该只托管在受信任的网络中。
Dask 教程:
https ://medium.com/swlh/parallel-processing-in-python-using-dask-a9a01739902a
2.-贾克斯
3.-羽毛格式
与语言无关,因此它可用于 R 和 Python,通常可以减少存储的内存占用。
4.- 在 Pandas 中原生减少内存消耗
当您稍后使用基于树的算法处理数据时,减少对列进行编码的内存位数特别有用。这是 Kaggle 普及的一个脚本。
import pandas as pd
def reduce_mem_usage(df, verbose=True):
numerics = ['int16', 'int32', 'int64', 'float16', 'float32', 'float64']
start_mem = df.memory_usage().sum() / 1024**2
for col in df.columns:
col_type = df[col].dtypes
if col_type in numerics:
c_min = df[col].min()
c_max = df[col].max()
if str(col_type)[:3] == 'int':
if c_min > np.iinfo(np.int8).min and c_max < np.iinfo(np.int8).max:
df[col] = df[col].astype(np.int8)
elif c_min > np.iinfo(np.int16).min and c_max < np.iinfo(np.int16).max:
df[col] = df[col].astype(np.int16)
elif c_min > np.iinfo(np.int32).min and c_max < np.iinfo(np.int32).max:
df[col] = df[col].astype(np.int32)
elif c_min > np.iinfo(np.int64).min and c_max < np.iinfo(np.int64).max:
df[col] = df[col].astype(np.int64)
else:
if c_min > np.finfo(np.float16).min and c_max < np.finfo(np.float16).max:
df[col] = df[col].astype(np.float16)
elif c_min > np.finfo(np.float32).min and c_max < np.finfo(np.float32).max:
df[col] = df[col].astype(np.float32)
else:
df[col] = df[col].astype(np.float64)
end_mem = df.memory_usage().sum() / 1024**2
print('Memory usage after optimization is: {:.2f} MB'.format(end_mem))
print('Decreased by {:.1f}%'.format(100 * (start_mem - end_mem) / start_mem))
return df