本篇内容介绍了“SSD-pytorch坑怎么解决”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!
成都创新互联专注于企业营销型网站建设、网站重做改版、淮阴网站定制设计、自适应品牌网站建设、H5页面制作、成都做商城网站、集团公司官网建设、成都外贸网站建设公司、高端网站制作、响应式网页设计等建站业务,价格优惠性价比高,为淮阴等各大城市提供网站开发制作服务。
我在运行
python train.py
的时候,发现确实loss降的异常的快。
运行
python eval.py
的时候mAP是一个很接近0的数。
经过思考,发现问题出在原来博客的第4个点:
(下面这段是从原文中复制来的)
4.train.py代码中,在迭代过程中,每次执行batch张图片,通过images, targets = next(batch_iterator)读取图片时,如果next()中没有数据后会触发Stoplteration异常,使用下面语句替换 images, targets = next(batch_iterator)将解决这种异常问题。 while True: try: # 获得下一个值: images, targets = next(batch_iterator) except StopIteration: # 遇到StopIteration就退出循环 break
但是其实是不能够这样改的,这么改的思路是遇到了问题就跳过去,这样很明显是不可以的,会导致不断的跳出循环,没有在进行有效的train,所以loss会降得很快,最后的结果也不好。
这个问题出现的原因是dataloader导入数据之后经过了一轮的迭代,再次导入的时候发现没有数据了,也就是iterable完成之后,触发了StopIteration,然后跳出了循环。
既然再次导入的时候没有数据了,那我们就再用一个dataloader就行了。
将train.py(165行)的
images, targets = next(batch_iterator)
更改成:
try: images, targets = next(batch_iterator) except StopIteration: batch_iterator = iter(data_loader) images, targets = next(batch_iterator)
问题解决。
“SSD-pytorch坑怎么解决”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注创新互联网站,小编将为大家输出更多高质量的实用文章!