本文共 2347 字,大约阅读时间需要 7 分钟。
异常检测应用在工业检测、账户行为监测等领域。
问题特点:异常检测问题,往往更多使用无监督的算法建模,再结合标定的验证集用于切阈值。
异常检测的两类常用方法:
本文案例代码:
数据集:电脑开机参数,包含两个特征
训练集和验证集的图示如:
算法教程参见吴恩达-机器学习-异常检测。
基本的假定是:数据中的每个特征数值都符合正态分布,如果数据点在整体分布上的概率密度值极小,即极小概率出现,认为是异常值。
概率分布方法对数据的要求:
正态性检验方法:stats.shapiro
接受假设的条件:
从训练集假设检验的结果并不完全满足正态分布。
from scipy import stats # 用于数据的正态性检验print('norm test of X[:,0]: ', stats.shapiro(X[:,0]))print('norm test of X[:,1]: ', stats.shapiro(X[:,1]))# output norm test of X[:,0]: (0.818209171295166, 2.788045548629635e-18)norm test of X[:,1]: (0.7949155569076538, 2.2437695460625395e-19)
训练数据无label,在labeled验证集上,应用算法:
p_val = multivariate_gaussian(X_val, mu, sigma2) #根据训练集的mu sigma2 得到验证集样本的概率epsilon_0, f1_0 = select_threshold(y_val, p_val) # 搜索选择合适的概率阈值print('Best epsilon found using cross-validation: {:0.4e}'.format(epsilon_0))print('Best F1 on Cross Validation Set: {:0.6f}'.format(f1_0))# outputBest epsilon found using cross-validation: 8.9909e-05Best F1 on Cross Validation Set: 0.875000
数据集中的9个异常点,检测出了7个,另外2个未检出的点实际在数据集的中心位置,并不是典型的异常点。需要注意的是,仅当数据为2维时,才能方便的应用可视化方法。
周志华及其学生在2010年提出。
方法:对样本的所有特征2分叉,随机采样构建N棵Tree
假设:异常点非常稀有,一般很快会分配到叶子节点,路径短结果:对样本在Tree中分配路径长度归一化,给出异常指数以路径长度作为异常的度量,在sklearn中已经有成熟实现,模型简单,速度快,参数少。
输入数据的特征选择比较重要,少量关键的特征效果好。由于算法已经在sklearn中实现,可以直接加载使用.IsolationForest 支持并行计算,在数据集较大的时候很有优势。
from sklearn.ensemble import IsolationForest# 需要调的参数主要是 树的棵树isf = IsolationForest(n_estimators=10, n_jobs=-1, # 使用全部cpu verbose=2, )isf.fit(X) # 直接用无标签数据训练 # 通过decision_function获取异常系数值,可以理解为异常概率,选择一个最好的阈值y_val_prob = isf.decision_function(X_val)epsilon_1, f1_1 = select_threshold(y_val, y_val_prob)print('Best epsilon found using cross-validation: {:0.4e}'.format(epsilon_1))print('Best F1 on Cross Validation Set: {:0.6f}'.format(f1_1))# outputBest epsilon found using cross-validation: -6.2384e-02Best F1 on Cross Validation Set: 0.823529
由于数据集比较简单,IsolationForest检测性能与概率分布法是一致的。
由于IsolationForest对数据的格式(连续、离散)以及概率分布没有要求,可以预见这种算法的应用范围可能更广。转载地址:http://nwtpx.baihongyu.com/