AutoML 中用于序列超参数空间缩减的元级学习算法
原文中文,约400字,阅读约需1分钟。发表于: 。自动机器学习(AutoML)领域的一篇研究论文,通过提出一种名为 SHSR 的元学习算法,在保持预测性能微乎其微的情况下,显著减少了任务执行时间约 30% 的超参数空间。
介绍了一种修改后的LAB算法,通过引入轮盘赌方法和缩减系数,引入了群体间竞争并逐步缩小样本空间。该算法通过解决CEC 2005和CEC 2017的基准测试问题来验证,并使用双边和成对符号秩Wilcoxon检验以及Friedman秩检验对解决方案进行验证。该算法表现出更强的稳健性和搜索空间探索能力。此外,还提出了一种基于聚类的搜索空间缩减方法,使该算法能够解决约束问题。最后,将使用修改后的LAB算法所获得的结果与其他最新的元启发式算法进行比较。