2015-7-9 参数优化

【[论文]《Gradient-based Hyperparameter Optimization through Reversible Learning》】(2015) D Maclaurin, D Duvenaud, RP AdamsO网页链接来自Harvard,提出超参优化的梯度计算新思路,“...opens up a garden of delights”,很有意思的论文,推荐,相关实验&图表:O网页链接 ICML2015上发表的《Gradient-based Hyperparameter Optimization through Reversible Learning》O网页链接   Download PDF   Supplementary (PDF)

ICML2015上发表的《Gradient-based Hyperparameter Optimization through Reversible Learning》网页链接《Gradient-based Hyperparameter Optimization through Reversible Learning》(2015) D Maclaurin, D Duvenaud, RP Adams网页链接来自Harvard,提出超参优化的梯度计算新思路,“...opens up a garden of delights”,很有意思的论文,推荐,相关实验&图表:网页链接


【论文:Online Boosting的优化和自适应算法】《Optimal and Adaptive Algorithms for Online Boosting》A Beygelzimer, S Kale, H Luo (ICML2015)O网页链接

[论文]《Scalable Bayesian Optimization Using Deep Neural Networks》(2015) J Snoek, O Rippel, K Swersky网页链接用DNN做参数优化,可实现大规模并行优化,酷!ICML2015上发表的版本:网页链接

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 各种机器学习的应用场景分别是什么?例如,k近邻,贝叶斯,决策树,svm,逻辑斯蒂回归和最大熵模型。 如何评价Pyt...
    hzyido阅读 5,283评论 0 7
  • 翻看icml的文章才发现原来Michael I. Jordan 也涉猎deep learning吗?O网页链接 香...
    hzyido阅读 4,099评论 0 2
  • 万绿农川山庄
    万绿农川山庄阅读 1,540评论 0 0
  • 导 语 为啥,同时撒娇会有这么大的反效果?理由非常简单,撒娇需要注意细节。细节决定成败,也决定男朋友越来越喜欢你、...
    飘雨桐V阅读 3,421评论 0 0
  • 周先生突然又好起来了,于是我的流产在最后一刻被温暖了, 相爱的两个人是多么的美好,即使再穷……
    素十阅读 1,079评论 0 0