Skip to main content
Version: 2.17.1

逻辑回归多分类

经典逻辑回归是一个二分类算法,而当前提供的逻辑回归可以支持多分类,且支持稀疏及稠密数据格式。

仅支持通过可视化方式,配置读取该组件参数,参数详情如下表所示:

  • 可视化方式
页签参数参数名称是否必选参数描述默认值
数据源表名inputTable数据表
默认参数选择特征标签列labelColName输入表中选择标签列名类型。
模型参数惩罚项penalty包括l1和l2。netton-cg,sag,lbfgs只支持l2。若选择l2正则化还是过拟合,可考虑l1正则化。若模型特征非常多,一些不重要的特征系数归零,让模型系数化,使用l1正则化。l2
模型参数训练结束误差边界tol优化算法停止的条件。当迭代前后的函数差值小于等于tol时就停止。0.0001
模型参数正则化系数C值越小,正则化越强。1
模型参数是否估计截距fit_intercept选择逻辑回归模型中是否会有常数项b。TRUE
调优参数用于标示分类模型中各种类型的权重class_weightbalanced,类库根据训练样本量来计算权重。某种类型的样本量越多,则权重越低。也支持自定义。balanced
调优参数逻辑回归损失函数的优化方法solver包括liblinear、lbfgs、newton - cg、sag、saga。liblinear,使用坐标轴下降法来迭代优化损失函数。只支持OvR。lbfgs,拟牛顿法一种。利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。newton-cg也是牛顿法一种。sag,随机平均梯度下降。每次迭代仅仅用一部分的样本来计算梯度,适合于样本数据多。liblinear
调优参数优化算法的迭代次数max_iter优化算法的迭代次数。1000
调优参数子采样multi_class包括ovr、multinomial、auto。multinomial即为MvM。若是二元逻辑回归,二者区别不大。auto