我使用4个3090GPU训练,设置batchsize为2,仍然会报显存不够的错,一定要8个GPU才能进行训练吗
我使用4个3090GPU训练,设置batchsize为2,仍然会报显存不够的错,一定要8个GPU才能进行训练吗