A.交叉熵也可以作为分类预测问题的损失函数
B.在使用梯度下降时,加上冲量项会减少训练的速度,但可能会增加陷入局部极小值的可能
C.与批量梯度下降法相比,使用小批量梯度下降法可以降低训练速度,但达到全局最优解可能需要更多的迭代次数
D.神经元的激活函数选择不影响神经网络的训练过程和最终性能
A.P分解法在计算上做了一些近似,最终计算精度没有牛顿-拉夫逊法高
B.牛顿-拉夫逊法的收敛速度比PQ分解法快
C.PQ分解法不适用于10kV的配电网的潮流计算,而牛顿-拉夫逊法可以用于10KV配电网的潮流计算
D.PQ分解法的单次迭代的计算速度快于牛顿一拉夫逊法,但是迭代次数比牛顿-拉夫逊法多