我正在对CIFAR10数据集使用Soft Max Algorithm,并且对我的交叉熵损失图有一些问题。我设法使用该算法获得了40%的准确率,因此准确率正在提高。令人困惑的部分是解释交叉熵图的结果,因为它与我在网上看到的任何类似问题的图都不相似。我想知道是否有人能给出一些关于如何解释以下图表的见解。在y上是损失,在x上是批号。这两个图分别对应于批次大小1和100。批量大小为100:
我正在写我的研究生工作,内容是关于从文件导入数据到SQL Server表的方法。我已经创建了自己的程序,现在我正在比较它与一些标准方法,如bcp,批量插入,插入...SELECT * FROM OPENROWSET(BULK...)我的程序从源文件中读入行,解析它们,然后使用普通的插入逐个导入它们所以问题是为什么批量操作更快?他们用的是特殊的手段还是什么?你能给我解释一下或者给我一些有用的链接吗?