我正在尝试将 60000,28,28 mnist 数字列表简单地重塑为 60000,784 numpy 数组,其中数字已展开。
为此,代码如下:
(xdata,xlabel),(ydata,ylabel)=tf.keras.datasets.mnist.load_data()
newxdata=np.array([])
cnt=0
for i in xdata:
tmpx=i.ravel()
if cnt == 0:
newxdata=np.concatenate((newxdata,tmpx))
else:
newxdata=np.vstack((newxdata,tmpx))
cnt=cnt+1
为什么这需要这么长时间才能运行?有没有办法加快速度?最终,数据将以较小的批量输入到 keras 模型中。当要求批量大小时,编写一个执行循环展开的生成器会提高性能还是不会产生影响?