我有一个巨大的numpy.ndarray
图像0,加载到RAM时需要60GB。我需要删除该数组的最后一个n
元素。一个简单的解决方案是:删除numpy.ndarray的最后N个元素后的内存
array1 = array1[:n-1]
但是当我这样做时,我没有获得RAM中的任何空间,为什么呢? 由于删除了这些元素,我如何获得RAM中的可用空间?我原本是为了这个收益去做的。
我有一个巨大的numpy.ndarray
图像0,加载到RAM时需要60GB。我需要删除该数组的最后一个n
元素。一个简单的解决方案是:删除numpy.ndarray的最后N个元素后的内存
array1 = array1[:n-1]
但是当我这样做时,我没有获得RAM中的任何空间,为什么呢? 由于删除了这些元素,我如何获得RAM中的可用空间?我原本是为了这个收益去做的。
array1[:n-1]
是一个视图,一个新的数组与原始的array1
共享数据缓冲区。即使您重新指定array1
,其数据缓冲区也不会调整大小。
array1.resize(n-1)
- 文档指示数据缓冲区被调整大小/重新分配,只要明确表示该缓冲区不与其他任何内容共享即可。
In [1105]: arr=np.arange(1000)
In [1106]: arr.nbytes
Out[1106]: 4000
In [1107]: sys.getsizeof(arr) # those bytes plus overhead
Out[1107]: 4048
In [1108]: arr = arr[:500] # your slice
In [1109]: arr.nbytes # fewer bytes
Out[1109]: 2000
In [1110]: sys.getsizeof(arr) # just the overhead
Out[1110]: 48
sys.getsizeof
获取视图的大小,但由于这股缓冲区与原arr
,我们看到的只是“开销”。原始arr
仍然存在,但它不能通过名称访问。
In [1111]: arr=np.arange(1000)
In [1112]: arr.resize(500)
In [1113]: arr.nbytes
Out[1113]: 2000
In [1114]: sys.getsizeof(arr)
Out[1114]: 2048
随着resize
方法看来该数据缓冲器已被调整大小,释放了它的一半。但我不确定是否有很好的测试方法,至少不是像这样的小数组。
可能我们有3个系统管理内存 - numpy,python解释器和系统。我们不得不进一步深入代码(可能是C-api),以确定在resize
之后内存是否被添加到某种numpy
缓存中,或者被Python垃圾收集器收集或被返回到系统。
============
resize
下一个新的shape
似乎减少沿第一轴的尺寸:
In [1120]: arr = np.arange(100).reshape(10,10).copy()
In [1121]: arr.resize(50)
In [1122]: sys.getsizeof(arr)
Out[1122]: 248
In [1123]: arr = np.arange(100).reshape(10,10).copy()
In [1124]: sys.getsizeof(arr)
Out[1124]: 456
In [1125]: arr.resize(50)
In [1126]: sys.getsizeof(arr)
Out[1126]: 248
In [1127]: arr.shape
Out[1127]: (50,)
In [1128]: arr.shape=(5,10) # inplace reshape
In [1129]: arr
Out[1129]:
array([[ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9],
[10, 11, 12, 13, 14, 15, 16, 17, 18, 19],
[20, 21, 22, 23, 24, 25, 26, 27, 28, 29],
[30, 31, 32, 33, 34, 35, 36, 37, 38, 39],
[40, 41, 42, 43, 44, 45, 46, 47, 48, 49]])
只要它是第一个轴,'resize'后跟一个就地'reshape'似乎工作。 – hpaulj
看的文档的'NP。调整大小' – hpaulj