首页 > 其他分享 >AI调参炼丹之法

AI调参炼丹之法

时间:2022-12-17 18:35:29浏览次数:49  
标签:search AI 调参 炼丹 参数 max params model best



目录

​​1  超参数优化​​

​​2  人工调参​​

​​3 网格/随机搜索​​

​​4 贝叶斯优化​​

​​4.1 算法简介​​

​​4.2 算法流程​​


1  超参数优化

AI调参炼丹之法_迭代

​编辑调参即超参数优化,是指从超参数空间中选择一组合适的超参数,以权衡好模型的偏差(bias)和方差(variance),从而提高模型效果及性能。常用的调参方法有:

  • 人工手动调参
  • 网格/随机搜索(Grid / Random Search)
  • 贝叶斯优化(Bayesian Optimization)

AI调参炼丹之法_搜索_02


注:超参数 vs 模型参数差异 超参数是控制模型学习过程的(如网络层数、学习率);模型参数是通过模型训练学习后得到的(如网络最终学习到的权重值)。

2  人工调参

手动调参需要结合数据情况及算法的理解,选择合适调参的优先顺序及参数的经验值。

不同模型手动调参思路会有差异,如随机森林是一种bagging集成的方法,参数主要有n_estimators(子树的数量)、max_depth(树的最大生长深度)、max_leaf_nodes(最大叶节点数)等。(此外其他参数不展开说明) 对于n_estimators:通常越大效果越好。参数越大,则参与决策的子树越多,可以消除子树间的随机误差且增加预测的准度,以此降低方差与偏差。对于max_depth或max_leaf_nodes:通常对效果是先增后减的。取值越大则子树复杂度越高,偏差越低但方差越大。

AI调参炼丹之法_人工智能_03


3 网格/随机搜索

AI调参炼丹之法_迭代_04


  • 网格搜索(grid search),是超参数优化的传统方法,是对超参数组合的子集进行穷举搜索,找到表现最佳的超参数子集。
  • 随机搜索(random search),是对超参数组合的子集简单地做固定次数的随机搜索,找到表现最佳的超参数子集。对于规模较大的参数空间,采用随机搜索往往效率更高。
  1. ​import numpy as np​
  2. ​from sklearn.model_selection import GridSearchCV​
  3. ​from sklearn.model_selection import RandomizedSearchCV​
  4. ​from sklearn.ensemble import RandomForestClassifier​

  5. ​# 选择模型 ​
  6. ​model = RandomForestClassifier()​
  7. ​# 参数搜索空间​
  8. ​param_grid = {​
  9. ​    'max_depth': np.arange(1, 20, 1),​
  10. ​    'n_estimators': np.arange(1, 50, 10),​
  11. ​    'max_leaf_nodes': np.arange(2, 100, 10)​

  12. ​}​
  13. ​# 网格搜索模型参数​
  14. ​grid_search = GridSearchCV(model, param_grid, cv=5, scoring='f1_micro')​
  15. ​grid_search.fit(x, y)​
  16. ​print(grid_search.best_params_)​
  17. ​print(grid_search.best_score_)​
  18. ​print(grid_search.best_estimator_)​
  19. ​# 随机搜索模型参数​
  20. ​rd_search = RandomizedSearchCV(model, param_grid, n_iter=200, cv=5, scoring='f1_micro')​
  21. ​rd_search.fit(x, y)​
  22. ​print(rd_search.best_params_)​
  23. ​print(rd_search.best_score_)​
  24. ​print(rd_search.best_estimator_)​

4 贝叶斯优化

贝叶斯优化,是一种使用贝叶斯定理来指导搜索以找到目标函数的最小值或最大值的方法,就是在每次迭代的时候,利用之前观测到的历史信息(先验知识)来进行下一次优化, 通俗点讲,就是在进行一次迭代的时候,先回顾下之前的迭代结果,结果太差的 x 附近就不去找了,尽量往结果好一点的 x 附近去找最优解,这样一来搜索的效率就大大提高了,这其实和人的思维方式也有点像,每次在学习中试错,并且在下次的时候根据这些经验来找到最优的策略。

贝叶斯优化(Bayesian Optimization) 与网格/随机搜索最大的不同,在于考虑了历史调参的信息,使得调参更有效率。(但在高维参数空间下,贝叶斯优化复杂度较高,效果会近似随机搜索。)

AI调参炼丹之法_搜索_05


4.1 算法简介

贝叶斯优化思想简单可归纳为两部分:

  • 高斯过程(GP):以历史的调参信息(Observation)去学习目标函数的后验分布(Target)的过程。
  • 采集函数(AC):由学习的目标函数进行采样评估,分为两种过程:1、开采过程:在最可能出现全局最优解的参数区域进行采样评估。2、勘探过程:兼顾不确定性大的参数区域的采样评估,避免陷入局部最优。

4.2 算法流程

  1. ​for循环n次迭代:​
  2. ​    采集函数依据学习的目标函数(或初始化)给出下个开采极值点 Xn+1;​
  3. ​    评估超参数Xn+1得到表现Yn+1;​
  4. ​    加入新的Xn+1、Yn+1数据样本,并更新高斯过程模型;​

AI调参炼丹之法_迭代_06

​编辑

  1. ​"""​
  2. ​随机森林分类Iris使用贝叶斯优化调参​
  3. ​"""​
  4. ​import numpy as np​
  5. ​from hyperopt import hp, tpe, Trials, STATUS_OK, Trials, anneal​
  6. ​from functools import partial​
  7. ​from hyperopt.fmin import fmin​
  8. ​from sklearn.metrics import f1_score​
  9. ​from sklearn.ensemble import RandomForestClassifier​

  10. ​def model_metrics(model, x, y):​
  11. ​    """ 评估指标 """​
  12. ​    yhat = model.predict(x)​
  13. ​    return  f1_score(y, yhat,average='micro')​

  14. ​def bayes_fmin(train_x, test_x, train_y, test_y, eval_iters=50):​
  15. ​    """​
  16. ​    bayes优化超参数​
  17. ​    eval_iters:迭代次数​
  18. ​    """​

  19. ​    def factory(params):​
  20. ​        """​
  21. ​        定义优化的目标函数​
  22. ​        """​
  23. ​        fit_params = {​
  24. ​            'max_depth':int(params['max_depth']),​
  25. ​            'n_estimators':int(params['n_estimators']),​
  26. ​            'max_leaf_nodes': int(params['max_leaf_nodes'])​
  27. ​            }​
  28. ​        # 选择模型​
  29. ​        model = RandomForestClassifier(**fit_params)​
  30. ​        model.fit(train_x, train_y)​
  31. ​        # 最小化测试集(- f1score)为目标​
  32. ​        train_metric = model_metrics(model, train_x, train_y)​
  33. ​        test_metric = model_metrics(model, test_x, test_y)​
  34. ​        loss = - test_metric​
  35. ​        return {"loss": loss, "status":STATUS_OK}​

  36. ​    # 参数空间​
  37. ​    space = {​
  38. ​        'max_depth': hp.quniform('max_depth', 1, 20, 1),​
  39. ​        'n_estimators': hp.quniform('n_estimators', 2, 50, 1), ​
  40. ​        'max_leaf_nodes': hp.quniform('max_leaf_nodes', 2, 100, 1)​
  41. ​            }​
  42. ​    # bayes优化搜索参数​
  43. ​    best_params = fmin(factory, space, algo=partial(anneal.suggest,), max_evals=eval_iters, trials=Trials(),return_argmin=True)​
  44. ​    # 参数转为整型​
  45. ​    best_params["max_depth"] = int(best_params["max_depth"])​
  46. ​    best_params["max_leaf_nodes"] = int(best_params["max_leaf_nodes"])​
  47. ​    best_params["n_estimators"] = int(best_params["n_estimators"])​
  48. ​    return best_params​

  49. ​#  搜索最优参数​
  50. ​best_params = bayes_fmin(train_x, test_x, train_y, test_y, 100)​


标签:search,AI,调参,炼丹,参数,max,params,model,best
From: https://blog.51cto.com/u_12480926/5949962

相关文章