DBNet
DBNet copied to clipboard
训练的时候是否需要指定batch_size呢
你好,我在train.py中看到model.fit( x=train_generator, steps_per_epoch=cfg.STEPS_PER_EPOCH, initial_epoch=cfg.INITIAL_EPOCH, epochs=cfg.EPOCHS, verbose=1, callbacks=callbacks, validation_data=val_generator, validation_steps=cfg.VALIDATION_STEPS )
其中fit函数并没指定batch_size,那么STEPS_PER_EPOCH依旧是数据集的大小,并没有除以batch_size吗;但是在generator中却有指定了batch_size,也就是说数据集会除以batch_size。那么在训练的过程是否会出现在同一个epoch中,队某个样本进行重复训练?
你好,我在train.py中看到
model.fit( x=train_generator, steps_per_epoch=cfg.STEPS_PER_EPOCH, initial_epoch=cfg.INITIAL_EPOCH, epochs=cfg.EPOCHS, verbose=1, callbacks=callbacks, validation_data=val_generator, validation_steps=cfg.VALIDATION_STEPS )
其中fit函数并没指定batch_size,那么STEPS_PER_EPOCH依旧是数据集的大小,并没有除以batch_size吗;但是在generator中却有指定了batch_size,也就是说数据集会除以batch_size。那么在训练的过程是否会出现在同一个epoch中,队某个样本进行重复训练?
STEPS_PER_EPOCH的值应该设定为 总数据量//batch_size, 训练时仅指定steps_per_epoch即可,无需在fit中指定batch_size