我试图使用Python中可用的tqdm模块打印优化算法的进度,但是,每次我试图更新它时,它都会以新的行打印进度,是否有一种方法只能更新最初正在实例化的tqdm条呢?我的代码如下所示,它是基于backtrader反测试库的:
def optimizer_callbacks(cb):
pbar.update()
def strategy_optim(**kwargs):
total = np.prod([len(value) for key,value in kwargs.items()])
csv_file = FDaxCSVData(---data---)
cerebro = bt.Cerebro()
cerebro.adddata(csv_file)
cerebro.broker.setcash(500000.0)
cerebro.broker.setcommission(commission=2.0)
strats = cerebro.optstrategy(strategy_name, printlog = False, **kwargs)
global pbar
pbar = tqdm.tqdm(smoothing=0.05, desc='Optimization Runs', total=total)
cerebro.optcallback(optimizer_callbacks)
runnings = cerebro.run(optreturn=False, maxcpus=2)
if __name__=="__main__":
strategy_optim(periods = [100, 200, 300], abs_margin= [25, 50, 75], trail_stop=[10, 20, 30, 40])输出:
Optimization Runs: 0%| | 0/12 [00:00<?, ?it/s]
Optimization Runs: 8%|██████▉ | 1/12 [00:18<03:21, 18.29s/it]
Optimization Runs: 17%|█████████████▊ | 2/12 [00:19<01:35, 9.59s/it]
Optimization Runs: 25%|████████████████████▊ | 3/12 [00:40<02:19, 15.55s/it]我确实查看了关于类似问题的堆栈溢出的其他帖子(其中大多数都集中在jupyter笔记本界面上),它们没有解决我的错误。此外,这也是一个多行处理过程,cerebro.optcallback在参数的唯一值集的每一次迭代之后调用optimizer_callbacks函数。
发布于 2020-10-03 06:25:50
我经常遇到这个问题,有时position = 0 & leave = True不能工作。所以我找到了另一种方法。
您可以使用tqdm.auto.tqdm代替tqdm.tqdm
或
而不是
from tqdm import tqdm试着使用
from tqdm.auto import tqdm发布于 2020-11-03 10:06:00
使用tqdm.tqdm(epochs, position=0, leave=True)确保进度条保持在相同的位置,而且每次都不会打印在新行上。
干杯
https://stackoverflow.com/questions/63908917
复制相似问题