当前位置: 代码网 > it编程>编程语言>Asp.net > 异常检测系列:基于聚类的局部异常因子(CBLOF)

异常检测系列:基于聚类的局部异常因子(CBLOF)

2024年08月04日 Asp.net 我要评论
这意味着如果前一个簇的大小|Ck|是下一个簇的五倍,簇k及以上被定义为大簇,簇k-1及以下被定义为小簇。按照局部邻域的精神,聚类C1中的数据是聚类C2的局部离群值,聚类C3中的数据是聚类C4的局部离群值。如果预期异常组中某个特征的均值高于正常组的均值,而结果却相反,这将是违反直觉的。当训练数据的异常值分数按升序排序时,前5%的数据是根据5%的污染率来确定的异常值。下面的“y_by_average”是对训练数据的5个模型预测结果的平均值,这些结果存储在数据框“train_scores_norm”中。

img
在介绍了局部离群因子(lof)之后,我们可以介绍基于聚类的局部离群因子(cblof)。它将异常定义为与附近聚类的局部距离和数据点所属聚类的大小的组合。它首先将数据点聚类为大型或小型聚类。靠近附近大型聚类的小型聚类的数据点被识别为离群值。局部离群值可能不是一个单独的点,而是一个小组孤立点。cblof是由he、xu和deng(2002)[1]提出的,因为它在捕捉离群值方面具有独特的优点。

(a) cblof的工作原理是什么?

在图(a)中,c2和c4是大型聚类,c1和c3是小型聚类。聚类c1和c3是离群值,因为它们不属于大型聚类c2和c4。按照局部邻域的精神,聚类c1中的数据是聚类c2的局部离群值,聚类c3中的数据是聚类c4的局部离群值。请注意cblof和lof之间的区别。cblof在“聚类”级别上构建,而lof在单个数据点级别上构建。

离群值的定义是任何靠近较大聚类的小型聚类的数据点。该定义捕捉了breunig(2000)提出的“局部离群值”的概念,以及任何聚类方法中的聚类概念。cblof考虑了数据点所属聚类的大小和数据点与其最近聚类之间的距离。
img
图(a):cblof(图片来源:[1])

让我用三个步骤来描述cblof的过程。第一步将数据点分配给一个且仅一个簇。任何能产生良好聚类结果的聚类算法都是合适的。因此,k-means是cblof常用的聚类算法。

第二步根据簇的大小从大到小对簇进行排名,并获取累积数据计数。那些包含90%数据的簇被称为“大”簇,而包含剩余10%数据的簇被称为“小”簇。90%的阈值可以在建模过程中进行微调。

第三步根据以下规则计算数据点到质心的距离和异常值得分:

  • 如果一个数据点属于一个大簇,则距离是到其簇质心的距离。异常值得分是距离乘以簇中数据点的数量。

  • 如果一个数据点属于一个小簇,则距离是到最近的大簇质心的距离。异常值得分是距离乘以数据点所属小簇的数据量。

(b) cblof和lof的区别

lof使用基于密度的方法,计算局部第k个最近邻居的数据点之间的距离。在图(b)中,lof可能将点a1识别为异常值,因为它从局部角度来看与c1距离较远。c1或c3可能不被认为是异常值。相反,cblof将考虑簇c1中的所有数据点都是异常值,因为c1与最近的大簇c2相距较远。
img
(c)建模过程

在本书中,我采用以下建模过程进行模型的开发、评估和结果的解释。

  1. 模型开发

  2. 阈值确定

  3. 正常组和异常组的描述性统计

使用cblof异常值得分,您将选择一个阈值来将具有高异常值得分的异常观察结果与正常观察结果分开。如果有任何先前的知识表明异常值的百分比不应超过1%,您可以选择一个阈值,使异常值约占1%。

两个组之间特征的描述性统计(例如均值和标准差)对于传达模型的可靠性非常重要。如果预期异常组中某个特征的均值高于正常组的均值,而结果却相反,这将是违反直觉的。在这种情况下,您应该调查、修改或删除该特征,并重新进行建模。
img
(c.1) 步骤1 — 构建cblof模型

与之前一样,我将使用pyod的实用函数generate_data()生成异常值。虽然目标变量y可用,但无监督模型仅使用x变量。y变量仅用于验证。我将异常值的百分比设置为5%,使用“contamination=0.05”。

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from pyod.utils.data import generate_data
contamination = 0.05 # percentage of outliers
n_train = 500       # number of training points
n_test = 500        # number of testing points
n_features = 6      # number of features
x_train, x_test, y_train, y_test = generate_data(
    n_train=n_train, 
    n_test=n_test, 
    n_features= n_features, 
    contamination=contamination, 
    random_state=123)

# make the 2d numpy array a pandas dataframe for each manipulation 
x_train_pd = pd.dataframe(x_train)
    
# plot
plt.scatter(x_train_pd[0], x_train_pd[1], c=y_train, alpha=0.8)
plt.title('scatter plot')
plt.xlabel('x0')
plt.ylabel('x1')
plt.show()

让我在散点图中仅绘制前两个变量。散点图中的黄色点是异常值,紫色点是正常数据点。
img
图(c.1): (作者提供的图片)

下面的代码指定了模型。因为cblof是一种基于聚类的算法,一个关键参数是聚类的数量。我将聚类的数量设置为10。之后我们将测试一系列其他聚类数量的值。参数contamination=0.05声明了一个5%的污染率。污染率是异常值的百分比。在大多数情况下,我们不知道异常值的百分比,所以可以根据任何先前的知识来赋值。pyod默认的污染率为10%。

函数decision_functions()生成训练数据和测试数据的异常值分数。当训练数据的异常值分数按升序排序时,前5%的数据是根据5%的污染率来确定的异常值。将前5%和剩下的95%分开的异常值分数是阈值,并存储在threshold_中。

函数predict()通过将异常值分数与阈值进行比较,将其分配为“1”或“0”。如果分数高于阈值,则分配为“1”,否则为“0”。我在下面的代码中编写了一个简短的函数count_stat()来显示预测的“1”和“0”的计数。


from pyod.models.cblof import cblof
cblof = cblof(n_clusters=10, contamination = 0.05) 
cblof.fit(x_train)

# training data
y_train_scores = cblof.decision_function(x_train)
y_train_pred = cblof.predict(x_train)

# test data
y_test_scores = cblof.decision_function(x_test)
y_test_pred = cblof.predict(x_test) # outlier labels (0 or 1)

def count_stat(vector):
    # because it is '0' and '1', we can run a count statistic. 
    unique, counts = np.unique(vector, return_counts=true)
    return dict(zip(unique, counts))

print("the training data:", count_stat(y_train_pred))
print("the training data:", count_stat(y_test_pred))
# threshold for the defined comtanimation rate
print("the threshold for the defined comtanimation rate:" , cblof.threshold_)

img
cblof特有的两个参数值得一提。我们可以使用get_params()来打印出模型参数。这两个参数是“alpha”和“beta”。首先,让我解释一下“alpha”。它是大簇的计数百分比。正如第(a)节所述,cblof通过大小对簇进行排序,那些包含90%数据的前几个簇被称为大簇。这里的“alpha”默认为90%。其次,让我解释一下“beta”。它是决定小簇和大簇的系数。对于按照大小降序排列的簇,|c1|, |c2|, …, |cn|,“beta”是任意相邻簇k和k-1之间的比率:|ck| / |ck-1|。默认值为5.0。这意味着如果前一个簇的大小|ck|是下一个簇的五倍,簇k及以上被定义为大簇,簇k-1及以下被定义为小簇。只要满足“alpha”或“beta”,算法就会定义簇。

cblof.get_params()

img
(c.2) 第二步 — 确定cblof模型的合理阈值

pyod有一个内置函数threshold_,它根据污染率contamination计算训练数据的阈值。由于默认的污染率是0.10,训练数据的阈值为1.2311,如下所示。它表示任何具有异常分数大于1.2311的观测值都被视为异常值。

确定阈值的第二种方法是使用pca异常分数的直方图,这使我们能够根据业务情况选择阈值。图(c.2)显示了分数的直方图。我们可以选择一种更保守的方法,通过选择一个较高的阈值,这将导致异常组中的异常值更少但更精细。

import matplotlib.pyplot as plt
plt.hist(y_train_scores, bins='auto')  # arguments are passed to np.histogram
plt.title("histogram with 'auto' bins")
plt.xlabel('cblof outlier score')
plt.show()

img
(c.3) 第三步 — 展示正常组和异常组的汇总统计信息

通过选择的阈值,我们可以识别出正常组和异常组,并展示这些组的特征。下面我使用用户定义的实用函数来展示这两个组。


threshold = cblof.threshold_ # or other value from the above histogram

def descriptive_stat_threshold(df,pred_score, threshold):
    # let's see how many '0's and '1's.
    df = pd.dataframe(df)
    df['anomaly_score'] = pred_score
    df['group'] = np.where(df['anomaly_score']< threshold, 'normal', 'outlier')

    # now let's show the summary statistics:
    cnt = df.groupby('group')['anomaly_score'].count().reset_index().rename(columns={'anomaly_score':'count'})
    cnt['count %'] = (cnt['count'] / cnt['count'].sum()) * 100 # the count and count %
    stat = df.groupby('group').mean().round(2).reset_index() # the avg.
    stat = cnt.merge(stat, left_on='group',right_on='group') # put the count and the avg. together
    return (stat)

descriptive_stat_threshold(x_train,y_train_scores, threshold)

img
表格(c.3)

上表展示了正常组和异常组的特征。它显示了正常组和异常组的计数和计数百分比。您需要使用特征名称标记特征,以便有效地展示。该表格告诉我们几个重要的结果。

首先,异常组约占总体的5%。请记住,异常组的大小取决于阈值。如果您选择较高的阈值,异常组的大小将会缩小。

其次,在我们的情况下,异常组中特征的均值小于正常组。如果某个特征的均值在异常组中被认为是较高或较低的,而结果与直觉相悖,建议您修改或删除该特征并重新运行模型。一个良好的模型应该具有与任何先前知识一致的特征均值。显然,如果数据结果强有力,它将提供新的见解来挑战任何先前的简要。

第三,“异常分数”是平均异常分数。我们只需要验证异常分数在异常组中是否高于正常组。您不需要对分数进行过多解释。

因为我们的数据生成中有真实值,所以我们可以生成一个混淆矩阵来了解模型的性能。该模型表现良好,并成功识别出了所有的25个异常值。


actual_pred = pd.dataframe({'actual': y_test, 'anomaly_score': y_test_scores})
actual_pred['pred'] = np.where(actual_pred['anomaly_score']< threshold,0,1)
pd.crosstab(actual_pred['actual'],actual_pred['pred'])

img
(d) 通过聚合多个模型实现模型稳定性

许多异常检测算法,特别是基于邻近性和基于分布的算法,对异常值非常敏感,并容易过拟合。我们如何生成一个具有稳定结果的模型呢?解决方案是使用一系列超参数训练模型,然后聚合得分。这样可以大大降低过拟合的可能性,并提高预测准确性。pyod模块提供了四种方法来聚合结果。请记得使用pip install combo安装相关函数。您只需要使用一种方法来生成聚合结果。

与lof类似,任何基于密度的模型都可能对训练数据过拟合,仅依赖一个模型并不是一个好主意。我将生成5个cblof模型,分别使用10、20、30、40和50个最近邻。这些模型的平均预测将作为最终模型的预测结果。

下面的“y_by_average”是对训练数据的5个模型预测结果的平均值,这些结果存储在数据框“train_scores_norm”中。我在图(f)中创建了它的直方图。


from pyod.models.combination import aom, moa, average, maximization
from pyod.utils.utility import standardizer
from pyod.models.cblof import cblof

# standardize data
x_train_norm, x_test_norm = standardizer(x_train, x_test)
# test a range of clusters from 10 to 50. there will be 5 models.
n_clf = 5
k_list = [10, 20, 30, 40, 50]
# just prepare data frames so we can store the model results
train_scores = np.zeros([x_train.shape[0], n_clf])
test_scores = np.zeros([x_test.shape[0], n_clf])
train_scores.shape
# modeling
for i in range(n_clf):
    k = k_list[i]
    cblof = cblof(n_clusters = k, contamination=0.05)  
    cblof.fit(x_train_norm)

    # store the results in each column:
    train_scores[:, i] = cblof.decision_function(x_train_norm) 
    test_scores[:, i] = cblof.decision_function(x_test_norm) 
# decision scores have to be normalized before combination
train_scores_norm, test_scores_norm = standardizer(train_scores,test_scores)

下面的“combination”是对训练数据的5个模型预测结果的平均值,这些结果存储在数据框“train_scores_norm”中。我在图(f)中创建了它的直方图。


# combination by average
# the test_scores_norm is 500 x 5. the "average" function will take the average of the 5 columns. the result "y_by_average" is a single column: 
y_train_by_average = average(train_scores_norm)
y_test_by_average = average(test_scores_norm)
import matplotlib.pyplot as plt
plt.hist(y_train_by_average, bins='auto') # arguments are passed to np.histogram
plt.title("combination by average")
plt.show()

img
图(d): 训练数据平均预测值的直方图

图(d)显示大部分分数都低于0.2。如果我将阈值设为1.0,它仍然可以很好地将异常值与正常数据分离。我在表(d)中生成了摘要统计表。它确定了25个数据点为异常值。与表(c.3)类似,异常值组的特征均值都小于正常组的特征均值。

descriptive_stat_threshold(x_train,y_train_by_average, 1)

img
表格(d)

(f) cblof摘要

  • 基于聚类的局部异常因子(cblof)将异常定义为与附近聚类的局部距离的组合,以及数据点所属聚类的大小。

  • cblof首先将数据点聚类为大型或小型聚类。然后识别小型聚类中的数据点作为局部异常值。局部异常值可能不是一个单独的点,而是一个小组孤立点。

  • 如果数据点属于大型聚类,则异常值分数是其聚类质心的距离乘以聚类中的数据点数。

  • 如果数据点属于小型聚类,则异常值分数是其最近大型聚类质心的距离乘以数据点所属小型聚类的数据数。

参考文献

  • [1] he, z., xu, x., & deng, s. (2003). discovering cluster-based local outliers. pattern recognit. lett., 24, 1641–1650.

异常检测系列文章导航

异常检测系列:histogram-based outlier score_hbos算法

异常检测系列:基于经验累积分布的异常检测(ecod)

异常检测系列:孤立森林(isolation forest)模型介绍

异常检测系列:主成分分析pca异常值分数检测

异常检测系列:支持向量机(svm)异常检测介绍

异常检测系列:单类支持向量机(ocsvm)

异常检测系列:高斯混合模型(gmm)

异常检测系列:局部异常因子(lof)

异常检测系列:k最近邻算法knn

异常检测系列:基于聚类的局部异常因子(cblof)

异常检测系列:基于极限梯度提升的异常检测(xgbod)

异常检测系列:autoencoder模型介绍

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com