示例
英文地址: https://scikit-learn.org/stable/auto_examples/index.html
其他示例
scikit-learn 的 Miscellaneous 和入门示例。
紧凑的估计表示  | 
带有可视化API的ROC曲线  | 
序回归  | 
先进的绘图具有部分依赖  | 
使用多输出估计器完成人脸  | 
多标签分类  | 
比较异常检测算法以对玩具数据集进行异常检测  | 
具有随机投影嵌入的Johnson-Lindenstrauss边界  | 
内核岭回归和SVR的比较  | 
RBF内核的显式特征图逼近  | 
双聚类
有关sklearn.cluster.bicluster模块的示例。
频谱共聚算法演示  | 
频谱双聚类算法的演示  | 
使用频谱共聚算法对文档进行聚合  | 
校准
举例说明了对分类器的预测概率进行校准的示例。
分类器校准的比较  | 
概率校准曲线  | 
分类器的概率校准  | 
3级分类的概率校准  | 
分类
有关分类算法的一般示例。
分类法线和收缩线线性判别分析  | 
识别手写数字  | 
情节分类概率  | 
分类器比较  | 
线性和二次判别分析与协方差椭球  | 
多聚类
有关sklearn.cluster模块的示例。
协方差估计
有关sklearn.covariance模块的示例。
Ledoit-Wolf与OAS估计  | 
稀疏逆协方差估计  | 
收缩协方差估计:LedoitWolf与OAS和最大似然性  | 
健壮的协方差估计和马氏距离相关性  | 
乐百氏VS实证协方差估计  | 
交叉分解
有关sklearn.cross_decomposition模块的示例。
比较交叉分解方法  | 
数据集示例
有关sklearn.datasets模块的示例。
Digit数据集  | 
虹膜数据集  | 
绘制随机生成的分类数据集  | 
绘制随机生成的多标签数据集  | 
决策树
有关sklearn.tree模块的示例。
决策树回归  | 
多路输出决策树回归  | 
在虹膜数据集上绘制决策树的决策面  | 
使用成本复杂度修剪来修剪修剪决策树  | 
了解决策树结构  | 
分解
有关sklearn.decomposition模块的示例。
β-发散损失函数  | 
具有虹膜数据集的PCA示例  | 
增量  | 
Iris数据集的LDA和PCA二维投影的比较  | 
使用FastICA进行盲源分离  | 
主成分分析(PCA)  | 
2D点云上的  | 
内核  | 
概率PCA和因子分析(FA)进行模型选择  | 
使用预先计算的字典进行稀疏编码  | 
图片使用字典学习去噪  | 
Faces数据集分解  | 
集成方法
有关sklearn.ensemble模块的示例。
基于真实数据集的示例
具有一些中等大小的数据集或交互式用户界面的现实问题的应用程序。
真实数据集的异常值检测  | 
压缩感测:使用L1先验(Lasso)进行层析成像重建  | 
非负矩阵分解和隐含狄利克雷分布话题提取  | 
使用特征脸和支持向量机的识别示例  | 
模型复杂度影响  | 
可视化的股市结构  | 
维基百科的主要特征向量  | 
物种分布建模  | 
Libsvm  | 
预测延迟  | 
文本文档的核心分类  | 
特征选择
有关sklearn.feature_selection模块的示例。
递归特征消除  | 
F检验和相互信息的比较  | 
管道Anova  | 
通过交叉验证消除递归特征  | 
使用SelectFromModel和LassoCV特征选择  | 
与排列测试的分类评分的意义  | 
单变量特征选择  | 
高斯混合模型
有关sklearn.mixture模块的示例。
高斯混合的密度估计  | 
高斯混合模型椭球  | 
高斯混合模型选择  | 
GMM协方差  | 
高斯混合模型正弦曲线  | 
贝叶斯高斯混合变量的浓度先验类型分析  | 
高斯机器学习过程
有关sklearn.gaussian_process模块的示例。
XOR数据集上的高斯过程分类(GPC)的图示  | 
虹膜数据集上的高斯过程分类(GPC)  | 
核岭和高斯过程回归的比较  | 
不同内核的先验和后验高斯过程的图示  | 
高斯过程分类(GPC)的等概率线  | 
概率预测的结果与高斯过程分类(GPC)  | 
具有噪声水平估计的高斯过程回归(GPR)  | 
高斯过程回归:基本入门示例  | 
基于Mauna Loa CO2数据的高斯过程回归(GPR)。  | 
离散数据结构上的高斯过程  | 
广义线性模型
有关sklearn.linear_model模块的示例。
检查
与sklearn.inspection模块有关的示例。
具有多重共线性或相关特征的置换重要性  | 
排列重要性与随机森林特征重要性(MDI)  | 
部分依赖图  | 
流形学习
有关sklearn.manifold模块的示例。
使用LLE减少瑞士卷  | 
流形学习方法的比较  | 
多维缩放  | 
叔SNE:各种困惑值对形状的影响  | 
截断球面上的流形学习方法  | 
手写数字流形学习:局部线性嵌入,Isomap…  | 
缺失值插补
有关sklearn.impute模块的示例。
使用IterativeImputer的变体估算缺失值  | 
在构建估算器之前估算缺失值  | 
选型
与sklearn.model_selection模块有关的示例。
多输出方法
有关sklearn.multioutput模块的示例。
分类器链  | 
最近邻
有关sklearn.neighbors模块的示例。
最近邻居回归  | 
使用局部离群因子(LOF)进行离群检测  | 
最近邻居分类  | 
最近质心分类  | 
核密度估计  | 
缓存最近的邻居  | 
邻域成分分析图  | 
具有局部异常值(LOF)的新颖性检测  | 
比较具有和不具有邻域分量分析的最近邻域  | 
使用邻域分量分析进行维  | 
物种分布的核密度估计  | 
简单的1D内核密度估计  | 
TSNE中的近似最近邻居  | 
神经网络
有关sklearn.neural_network模块的示例。
在MNIST上可视化MLP权重  | 
用于数字分类的受限玻尔兹曼机功能  | 
在多层感知变化正规化  | 
比较随机学习策略MLPClassifier  | 
管道和复合估计器
由其他估算器组成变压器和管道的示例。请参阅《用户指南》。
连结多个特征提取方法  | 
流水线:链接PCA和逻辑回归  | 
混合类型的列转换器  | 
使用Pipeline和GridSearchCV选择降维  | 
具有异构数据源的列转换器  | 
在回归模型中转换目标的效果  | 
预处理
有关sklearn.preprocessing模块的示例。
使用FunctionTransformer选择列  | 
使用KBinsDiscretizer离散化连续特征  | 
演示KBinsDiscretizer的不同策略  | 
特征缩放的重要性  | 
地图数据正态分布  | 
功能离散  | 
比较不同缩放器对数据与异常值的影响  | 
发布要点
这些示例说明了scikit-learn发行版的主要功能。
scikit-learn 0.22的发行要点  | 
半监督分类
有关sklearn.semi_supervised模块的示例。
Iris数据集上标签传播与SVM的决策边界  | 
标签传播学习复杂的结构  | 
标签传播数字:演示性能  | 
标签传播数字主动学习  | 
支持向量机
有关sklearn.svm模块的示例。
非线性  | 
SVM:最大余量分隔超平面  | 
具有自定义内核的  | 
在LinearSVC中绘制支持向量  | 
SVM中断示例  | 
SVM:加权样本  | 
SVM:为不平衡的类分离超平面  | 
SVM内核  | 
SVM-Anova:具有单变量特征选择的  | 
使用线性和非线性内核支持向量回归(SVR)  | 
SVM保证金示例  | 
具有非线性内核(RBF)的一类  | 
在虹膜数据集中绘制不同的SVM分类器  | 
扩展SVC的正则化参数  | 
RBF SVM参数  | 
教程练习
教程练习。
数字分类练习  | 
交叉验证数字数据集练习  | 
SVM练习  | 
糖尿病运动数据集交叉验证  | 
文本文档工作
有关sklearn.feature_extraction.text模块的示例。
FeatureHasher和DictVectorizer比较  | 
使用k-means聚类文本文档  | 
使用稀疏特征对文本文档进行分类  | 
