1
128
如果您希望尽可能多地使用SVC并在整个数据集上进行训练,可以使用在数据子集上训练的SVC集合来减少每个分类器的记录数(这显然对复杂性有二次影响)。Scikit通过
或者,我也会考虑使用Random Forest分类器——它本机支持多类分类,速度快,并且在以下情况下可以给出很好的概率估计
我对虹膜数据集进行了100次快速测试,共有10个SVC,每个SVC都对10%的数据进行了训练。它比单个分类器快10倍以上。这些是我在笔记本电脑上得到的数字: 单个SVC:45s 集成SVC:3s 随机森林分类器:0.5s 下面是我用来生成数字的代码:
如果要确保每个记录仅用于
|
2
22
SVM分类器不那么容易缩放。从文档中,关于
在scikit学习
或者,您可以使用另一个分类器。如果你想要概率估计,我建议你进行逻辑回归。 Logistic回归还具有不需要 probability calibration 以输出“正确”概率。 编辑:
我不知道
从
请注意,如果没有校准,估计值可能会很差,如链接所示。 |
3
8
您可以使用
the
|
4
7
它在最上面的答案中被简要提及;这是代码:最快的方法是通过
the
具有
这将使用计算机上所有可用的CPU,同时仍然执行与以前相同的计算。 |
5
2
对于大型数据集,考虑使用LinearSVC或SGDClassifier,可能在Nystroem变压器之后。 https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html |
July · 如何定义数字间隔,然后四舍五入 1 年前 |
user026 · 如何根据特定窗口的平均值(行数)创建新列? 1 年前 |
Ashok Shrestha · 需要追踪特定的颜色线并获取坐标 1 年前 |
Nicote Ool · 在FastApi和Vue3中获得422 1 年前 |
Abdulaziz · 如何对集合内的列表进行排序[重复] 1 年前 |
asmgx · 为什么合并数据帧不能按照python中的预期方式工作 1 年前 |