如何为分类方法找到理想的 kernel/algorithm 参数?

How to find the ideal kernel/algorithm arguments for classification methods?

我正在使用多类 SVM 和深度学习 NN。 有很多我可以调整的论点, 特别是选择正确的内核。 选择理想参数的最佳方法是什么?

是否可以使用任何“目标函数最小化算法”迭代完成,否则将永远花费时间?

我认为这是数据挖掘项目中最耗时的任务之一。找到最好的参数(称为超参数)是困难的,而且对于数据挖掘项目来说也是必不可少的。所以有一些解决方案(例如 scikit, witch is a machine learning lib for python, has Grid Search to find good hyper parameters for algorithm such as SVM, also here,使用进化算法在 scikit 中为机器学习算法找到正确的超参数)

所以对于你的问题,我认为最好写(或找到)类似 Scikit Grid Seaerch 的想法。 在特定算法中测试一系列参数(超参数),并根据测试结果return 最佳参数。

对于c#和accord frame work,它有一个Grid Search来优化参数:http://accord-framework.net/docs/html/T_Accord_MachineLearning_GridSearch_1.htm