在模型的训练过程中,我已经使用了shuffle my dataset,如文档示例: (但无法将其全部混洗,因为它会占用太多内存),我还将我的数据集分成多个小碎片,每个碎片大小相等。然而,我有理由认为这种“近似”的混洗是不够的,我还认为馈送已经混洗的数据将提高训练速度。所以现在我的问题是:在我将我的数据集分成Tfrecords分片后,是否有可能高效地编写随机获取2个分片的代码,加载它们,对它们进行混洗,然后重写2个分片(现在在两个分片之间进行混洗)。因此我可以重复这个过程很多次,这将导致正确的混洗<