随机梯度下降多分类
SGD通过利用OVA方法来组合多个二分类器,从而实现多分类。对于每一个K类, 可以训练一个二分类器来区分自身和其他K-1个类。
仅支持通过可视化方式,配置读取该组件参数,参数详情如下表所示:
- 可视化方式
页签 | 参数 | 参数名称 | 是否必选 | 参数描述 | 默认值 |
---|---|---|---|---|---|
数据源 | 表名 | inputTable | 是 | 数据表 | 无 |
默认参数 | 选择特征标签列 | labelColName | 是 | 输入表中选择标签列名类型。 | 无 |
模型参数 | 损失函数 | loss | 是 | 损失函数的类型。默认值为hinge。包含hinge,log,modified_huber,squared_hinge,perceptron。 | hinge |
模型参数 | 惩罚项 | penalty | 是 | 惩罚项。默认值为l2。包含l1,l2,elasticnet。 | l2 |
模型参数 | 是否估计截距 | fit_intercept | 是 | 布尔值,是否估计截距,如果为假,认为数据已经中心化。 | True |
调优参数 | 优化算法的迭代次数 | max_iter | 是 | 整数,可选的。迭代的最大次数,如果参数tol不是空,则默认值为1000。 | 1000 |
调优参数 | 训练结束误差边界 | tol | 是 | 浮点数。训练结束的误差边界。当previous_loss - cur_loss < tol时,训练结束。 | 0.001 |
调优参数 | 是否打乱数据顺序 | shuffle | 是 | 布尔值,可选的。每轮迭代后是否打乱数据的顺序,默认为True。 | True |
调优参数 | 学习率策略 | learning_rate | 是 | 学习速率的策略包括constant、optimal、invscaling。 | optimal |
调优参数 | 用于标示分类模型中各种类型的权重 | class_weight | 是 | balanced,类库根据训练样本量来计算权重。某种类型的样本量越多,则权重越低。也支持自定义。 | balanced |