对经典神经网络大量重复试验超参是有意义的工作吗?

2021-11-18 22:30:54 +08:00
 LeeReamond

比较好奇,如果算力足够的话,比如从 torchvison 里面选一些什么 resnet34 之类的网络,然后对立面的所有层的超参可能出现的值的选出一些可能的大小,然后排列组合后,全部都训练一遍,选出效果最好的,这种对于普遍性的数据集是有意义的工作吗?还是说只能用来针对单一数据集,换个数据集就不好使了。有人用这种技巧来刷榜吗?

751 次点击
所在节点    问与答
2 条回复
KarenTendo
2021-11-19 08:19:54 +08:00
应该有一些?但是单独拿出来发论文可能不足,efficientNet 就对 baseline network 的 alpha,beta,gamma 三个缩放常数做了网格搜索
chenzhekl
2021-11-19 16:04:27 +08:00
这就是 grid search ,有意义肯定是有意义的,但想获得突破性的提升是不太可能。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/816399

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX