首页 > 编程语言 >LSB隐写分析算法实现

LSB隐写分析算法实现

时间:2023-02-27 19:23:30浏览次数:31  
标签:嵌入 LSB 检测 隐写 像素 分类器 算法 图像

分析步骤

  1. 确定LSB嵌入的方式:LSB嵌入方式有很多种,如连续LSB嵌入、随机LSB嵌入、二进制交替LSB嵌入等。不同的嵌入方式对应着不同的检测方法,因此,在开始编写算法之前,需要确定待检测的LSB嵌入方式。
  2. 图像预处理:在进行特征提取之前,需要对图像进行预处理,以去除图像中的噪声和压缩等对隐写分析造成的影响。常用的图像预处理方法包括去噪、锐化、边缘增强等。
  3. 特征提取:特征提取是图像隐写分析的关键步骤。常用的特征包括像素值分布、像素值差分直方图、小波系数、图像块的自相关函数等。在特征提取时,需要注意特征的鲁棒性和区分度,以提高算法的准确性。
  4. 分类器选择和训练:分类器是用来对图像进行分类的关键组成部分。常用的分类器包括支持向量机(SVM)、人工神经网络(ANN)、决策树等。在选择分类器时,需要考虑算法的复杂度和准确性。在训练分类器时,需要选择合适的训练样本,并对分类器进行优化和调整,以提高分类器的准确性和鲁棒性。
  5. 判决门限的确定:在进行图像分类时,需要确定一个判决门限,以确定图像是否含有隐写信息。判决门限的选择需要综合考虑误检率和漏检率,以找到一个最佳的平衡点。

针对连续LSB嵌入的检测方法

针对连续LSB嵌入的检测方法可以选择卡方检验和线性回归相结合的方法。

具体流程如下:

  1. 对于待检测的图像,先进行预处理,将其转换为灰度图像,再将其划分为若干个大小相等的非重叠块。
  2. 对于每个块,提取其中的LSB位,并将其作为一个二进制序列。
  3. 对于这个二进制序列,统计其中每个数字出现的次数,得到一个频数分布。
  4. 对于一个块中的频数分布,假设其为服从二项分布的,其中n表示序列长度,p表示嵌入概率。假设块中的像素总数为N,则n=N,p=0.5。
  5. 利用卡方检验对这个二项分布进行检验。假设这个块中嵌入的信息量为k,那么我们假设原本这个二项分布中每个数字应该出现的次数为n/2,即随机情况下每个数字出现的次数相等。然后我们将实际出现次数和理论出现次数进行比较,计算出卡方统计量。
  6. 利用线性回归对卡方统计量进行拟合,得到一个回归方程。然后利用这个回归方程,对于一个待检测的块,计算出其卡方统计量,如果该值大于一个阈值,则认为该块中嵌入了信息。

需要注意的是,这个阈值需要根据实验结果进行调整,以达到最好的检测效果。同时,对于连续的多个块,可以将其统一考虑,得到一个整体的检测结果。

算法实现

Matlab

以下是一个基于卡方检验和线性回归的连续LSB嵌入检测算法的MATLAB代码实现:

function [pValue, result] = lsb_detection(image, message_length, alpha)

% 将图像转为灰度图像
if size(image, 3) > 1
    image = rgb2gray(image);
end

% 获取图像大小和像素值
[h, w] = size(image);
pixels = double(image(:));

% 确定每个像素的LSB值
lsbs = bitget(pixels, 1);

% 计算嵌入比例
embedding_rate = message_length / (h * w);

% 构造特征向量
x = lsbs(1:end-1);
y = lsbs(2:end);

% 计算Pearson相关系数
r = corr(x, y);

% 计算卡方统计量
d = sum((y - r*x).^2 ./ (r*(1-r)*x.*(1-x)));

% 计算p-value
pValue = 1 - chi2cdf(d, 1);

% 判断是否嵌入信息
if pValue < alpha
    result = true;
else
    result = false;
end

end

其中,image为输入图像,message_length为嵌入的消息长度,alpha为阈值,用于判断是否嵌入了信息。函数输出pValue为计算得到的p-value值,result为判断结果,若为true则表示嵌入了信息,若为false则表示未嵌入信息。

Python

import numpy as np
from sklearn.ensemble import RandomForestClassifier

# 确定LSB嵌入的方式:连续LSB嵌入
embedding_interval = 1

# 图像预处理:将图像转化为灰度图,并调整图像大小为256x256
from PIL import Image
img = Image.open('embedded_image.png').convert('L').resize((256, 256))
img_arr = np.array(img)

# 特征提取:统计每个像素的连续LSB位值,组成特征向量
features = []
for i in range(256):
    for j in range(256):
        pixel = img_arr[i][j]
        feature = []
        for k in range(7):
            LSB_val = (pixel >> k) & 1
            next_LSB_val = (pixel >> (k+1)) & 1
            if LSB_val == next_LSB_val:
                feature.append(0)
            else:
                feature.append(1)
        features.append(feature)
features = np.array(features)

# 分类器选择与训练:采用随机森林分类器
clf = RandomForestClassifier(n_estimators=10)
X_train = features[:50000]
y_train = np.array([0 if i < 25000 else 1 for i in range(50000)])
clf.fit(X_train, y_train)

# 判决门限的确定:利用验证集进行阈值选择
X_val = features[50000:75000]
y_val = np.array([0 if i < 12500 else 1 for i in range(25000)])
probas_val = clf.predict_proba(X_val)[:, 1]
threshold = 0.5  # 初始化门限
best_acc = 0
for t in range(1, 100):
    tmp_threshold = t / 100
    tmp_acc = ((probas_val > tmp_threshold) == y_val).mean()
    if tmp_acc > best_acc:
        threshold = tmp_threshold
        best_acc = tmp_acc

# 对测试集进行预测和判定
X_test = features[75000:]
y_test = np.array([0 if i < 12500 else 1 for i in range(25000)])
probas_test = clf.predict_proba(X_test)[:, 1]
preds_test = (probas_test > threshold).astype(int)
accuracy = (preds_test == y_test).mean()
print("Accuracy on test set: %.4f" % accuracy)

这个代码示例中,我们首先确定了连续LSB嵌入的方式,即嵌入间隔为1。接下来,我们进行图像预处理,将嵌入的图像转化为灰度图并缩放到256x256的大小。然后,我们对每个像素提取连续LSB位值,将这些LSB位值组成特征向量。这里我们选用了7个连续的LSB位来作为特征,这个数目可以根据实际情况进行调整。

对于特征选择,我们可以采用经典的基于信息增益的方法。具体来说,我们可以计算每个特征与嵌入信息之间的信息增益,并选择信息增益较大的特征。设\(L\)为样本总数,\(L_0\)为嵌入信息为0的样本数,\(L_1\)为嵌入信息为1的样本数,\(L_{00}\)为嵌入信息为0且特征值为0的样本数,\(L_{01}\)为嵌入信息为0且特征值为1的样本数,\(L_{10}\)为嵌入信息为1且特征值为0的样本数,\(L_{11}\)为嵌入信息为1且特征值为1的样本数,则特征\(x_i\)的信息增益可以表示为:

其中,\(H(p,n)=-p\log_2p-n\log_2n\)为二元熵函数。

在特征选择之后,我们就可以对随机森林分类器进行训练了。随机森林是一种基于决策树的集成学习方法,它通过构建多个决策树并将它们组合成一个更强大的分类器。随机森林具有良好的泛化性能和鲁棒性,并且对于高维特征数据集也具有较好的表现。

我们在这里使用Python中的scikit-learn库实现随机森林分类器。具体来说,我们可以按照以下步骤进行:

  1. 导入必要的库和模块

    from sklearn.ensemble import RandomForestClassifier
    
  2. 创建随机森林分类器对象

    rf = RandomForestClassifier(n_estimators=50, max_depth=10, random_state=0)
    

    其中,n_estimators表示决策树的数量,max_depth表示决策树的最大深度,random_state表示随机种子,保证每次训练的结果相同。

  3. 利用训练集进行训练

    rf.fit(train_X, train_y)
    

    其中,train_X为训练集特征矩阵,train_y为训练集标签向量。

  4. 利用测试集进行测试

    test_y_pred = rf.predict(test_X)
    

    其中,test_X为测试集特征矩阵,test_y_pred为测试集标签向量的预测结果。

    最后,我们需要确定判决门限,以便将预测结果转化。确定判决门限是连续LSB嵌入检测中的一个重要步骤,它决定了分类器预测结果的转化方式。一般来说,判决门限是通过训练集和验证集来确定的。我们可以将预测结果分为两类:嵌入和非嵌入,然后根据验证集的结果,通过调整门限来得到最优的分类结果。

    具体来说,我们可以通过计算ROC曲线来确定最优的判决门限。ROC曲线是一种以假阳性率(False Positive Rate, FPR)为横坐标,真阳性率(True Positive Rate, TPR)为纵坐标的图像,用于评估分类器的性能。在ROC曲线中,判决门限在[0,1]之间变化,每个门限对应一个FPR和TPR。当门限为0时,所有样本都被分类为嵌入,此时FPR=1,TPR=1。当门限为1时,所有样本都被分类为非嵌入,此时FPR=0,TPR=0。ROC曲线越靠近左上角,分类器的性能越好。

    我们可以通过计算不同判决门限下的FPR和TPR,然后绘制ROC曲线来评估分类器的性能。最优的判决门限是ROC曲线上距离左上角最近的点对应的门限。在实际应用中,我们可以选择最优判决门限来将分类器的预测结果转化为嵌入或非嵌入。

    以下是代码框架:

    import numpy as np
    import cv2
    from sklearn.ensemble import RandomForestClassifier
    
    # 读取图像并进行预处理
    def read_image(filename):
        # 读取图像文件
        img = cv2.imread(filename, cv2.IMREAD_GRAYSCALE)
    
        # 进行预处理(如去噪、调整大小等)
    
        return img
    
    # 提取LSB位特征
    def extract_lsb_feature(img):
        # 获取像素值的LSB位
        lsb = np.bitwise_and(img, 1)
    
        # 统计连续的LSB位个数
        lsb_count = []
        for i in range(lsb.shape[0]):
            row_count = []
            for j in range(lsb.shape[1]):
                count = 0
                while j < lsb.shape[1] and lsb[i, j] == lsb[i, j+1]:
                    count += 1
                    j += 1
                row_count.append(count)
            lsb_count.append(row_count)
        lsb_count = np.array(lsb_count)
    
        # 将LSB位个数作为特征向量
        features = lsb_count.flatten()
    
        return features
    
    # 训练随机森林分类器
    def train_classifier(X_train, y_train):
        # 创建分类器
        classifier = RandomForestClassifier(n_estimators=100)
    
        # 训练分类器
        classifier.fit(X_train, y_train)
    
        return classifier
    
    # 选择最优判决门限
    def choose_threshold(y_true, y_pred):
        # 计算不同判决门限下的FPR和TPR
        thresholds = np.arange(0, 1.01, 0.01)
        fpr = []
        tpr = []
        for threshold in thresholds:
            y_pred_binary = (y_pred > threshold).astype(int)
            tn, fp, fn, tp = confusion_matrix(y_true, y_pred_binary).ravel()
            fpr.append(fp / (fp + tn))
            tpr.append(tp / (tp + fn))
    
        # 选择最优判决门限
        dists = np.sqrt((1-np.array(tpr))**2 + np.array(fpr)**2)
        best_threshold = thresholds[np.argmin(dists)]
    
        return best_threshold
    
    # 加载图像数据和标签
    X_data = []
    y_data = []
    for i in range(num_images):
        filename = "image_" + str(i) + ".png"
        img = read_image(filename)
        X_data.append(extract_lsb_feature(img))
        y_data.append(0) if embedding[i] == 0 else y_data.append(1)
    
    # 划分训练集和测试集
    X_train, X_test, y_train, y_test = train_test_split(X_data, y_data, test_size=0.2, random_state=42)
    
    # 训练随机森林分类器
    classifier = train_classifier(X_train, y_train)
    
    # 在测试集上进行预测
    y_pred = classifier.predict_proba(X_test)[:, 1]
    
        # Choose threshold to convert classification to embedding or non-embedding
        threshold = choose_threshold(y_pred_prob, y_true)
    
        # Convert predicted probabilities to embedding or non-embedding labels
        y_pred = [1 if prob >= threshold else 0 for prob in y_pred_prob]
    
        # Compute accuracy and confusion matrix
        acc = accuracy_score(y_true, y_pred)
        tn, fp, fn, tp = confusion_matrix(y_true, y_pred).ravel()
    
        # Compute precision, recall, and F1 score
        precision = tp / (tp + fp)
        recall = tp / (tp + fn)
        f1_score = 2 * precision * recall / (precision + recall)
    
        # Print evaluation metrics
        print("Accuracy: {:.4f}".format(acc))
        print("Precision: {:.4f}".format(precision))
        print("Recall: {:.4f}".format(recall))
        print("F1 Score: {:.4f}".format(f1_score))
        print("Confusion Matrix:")
        print("True Negative: {}".format(tn))
        print("False Positive: {}".format(fp))
        print("False Negative: {}".format(fn))
        print("True Positive: {}".format(tp))
    
    

    这里的 choose_threshold 函数是用来确定分类器预测结果的阈值的,以便将预测结果转化为嵌入或非嵌入的标签。阈值的选择可以使用最优化方法,例如基于F1得分的最大化。accuracy_scoreconfusion_matrixprecisionrecallf1_score 分别是评估分类器性能的函数。在实际应用中,可以通过修改参数来优化分类器的性能,并对不同的图像进行测试以验证分类器的泛化能力。

理论阐释

连续LSB隐写是一种常见的隐写方法,也是一种难以检测的隐写方法。卡方检验和线性回归是常见的连续LSB隐写检测方法,它们可以结合使用以提高检测准确性。

首先,我们来看卡方检验。卡方检验是一种用于检验样本是否符合特定分布的统计方法,其基本原理是比较样本观测值与理论预期值之间的差异。在连续LSB隐写中,我们可以将像素的LSB位看作二元随机变量,其中0表示隐写了信息,1表示未隐写信息。我们可以将图像分成若干个块,对每个块进行卡方检验,计算块中0和1的观测值和理论预期值的差异。具体来说,假设一个块中共有N个像素,其中隐写了M个比特信息,那么我们可以计算出该块中LSB为0和1的像素个数分别为N0和N1,那么理论上LSB为0和1的像素个数分别为N×(1-M/N)和N×(M/N),则可以通过以下公式计算出卡方统计量X2:

X2 = (N0 - N×(1-M/N))2 / (N×(1-M/N)) + (N1 - N×(M/N))2 / (N×(M/N))

接下来,我们来看线性回归。线性回归是一种常见的统计分析方法,用于建立自变量和因变量之间的线性关系。在连续LSB隐写中,我们可以将像素的LSB位看作因变量,将像素在块内的位置看作自变量,假设连续LSB隐写的长度为K,则可以使用以下公式计算回归系数:

β = (XTX)-1XTY

其中,X是块内像素在位置上的矩阵,Y是像素LSB位的向量,T代表转置,-1代表矩阵的逆。

结合卡方检验和线性回归,我们可以先使用卡方检验确定隐写消息嵌入的终点,然后使用线性回归确定隐写消息的长度。具体来说,我们可以对图像分块,并对每个块进行卡方检验,找出卡方统计量最大的块,假设卡方统计量最大的块的隐写消息嵌入终点为n,则可以使用线性回归计算出隐写消息的长度k。由于连续LSB隐写的消息长度通常较短,因此我们可以将k限制在一定的范围内,例如k≤8。此外,我们需要进行一些参数调整,以使得该方法在不同情况下都能够有效地工作。对于一个给定的图像,我们首先需要对其进行预处理,将其转换为灰度图像并将其像素值归一化到0到1之间。然后我们将图像按照规定的步长k分成一系列的子块,然后对每个子块进行卡方检验和线性回归检测。如果一个子块中检测到了消息,则我们认为该子块被嵌入了消息。最后,我们可以将所有包含消息的子块组合起来,得到完整的消息。

该方法的有效性得到了广泛的实践验证。通过使用不同的数据集进行测试,该方法在不同情况下都能够达到很高的准确性和鲁棒性。同时,该方法的计算复杂度相对较低,因此可以在实际应用中得到广泛的应用。

针对随机LSB嵌入的检测方法

算法实现

这个实现方法的基本思路是先将图像转换为二进制矩阵,并将二进制矩阵分块。然后统计每个分块内0和1的个数,并计算每个分块的卡方统计量。最后,通过比较卡方统计量的p值和一个预设的阈值,判断图像中是否存在随机LSB嵌入。

function [result, p_value] = random_lsb_detection(image_path, block_size)
% 随机LSB嵌入检测函数
% image_path: 待检测图像的路径
% block_size: 分块大小

% 加载图像
im = imread(image_path);

% 灰度化
im_gray = rgb2gray(im);

% 将像素值转换为二进制矩阵
im_bin = de2bi(im_gray, 8, 'left-msb');

% 计算卡方检验的自由度
dof = block_size ^ 2 - 1;

% 统计每个分块内0和1的个数
blk_count = numel(im_gray) / block_size ^ 2;
zeros_count = zeros(1, blk_count);
ones_count = zeros(1, blk_count);

for i = 1:blk_count
    blk = im_bin((i-1)*block_size^2+1:i*block_size^2, :);
    zeros_count(i) = sum(blk(:) == 0);
    ones_count(i) = sum(blk(:) == 1);
end

% 计算每个分块的卡方统计量
chi2_val = zeros(1, blk_count);
for i = 1:blk_count
    O = [zeros_count(i) ones_count(i)];
    E = mean(O) .* [1 1];
    chi2_val(i) = sum((O - E) .^ 2 ./ E);
end

% 计算p值
p_value = 1 - chi2cdf(chi2_val, dof);

% 判断是否嵌入
threshold = 0.05;
result = max(p_value) < threshold;

理论阐释

随机LSB嵌入是指将秘密信息随机嵌入到图像的LSB位中,以此来隐藏秘密信息。与连续LSB嵌入相比,随机LSB嵌入具有更高的安全性,因为随机嵌入可以使嵌入模式更加难以检测。因此,针对随机LSB嵌入的检测方法需要更加复杂和灵活。

一种常见的针对随机LSB嵌入的检测方法是基于统计分析的方法,如直方图分析和频率统计。其基本思想是通过对图像的像素值分布进行分析来检测是否存在随机LSB嵌入。具体来说,我们可以从以下两个方面来考虑:

  1. 直方图分析

    图像像素值的直方图是图像像素值分布的统计信息,通常可以通过计算图像的灰度直方图或颜色直方图得到。当随机LSB嵌入存在时,图像的像素值分布会受到影响,因此通过对嵌入前后的直方图进行比较,可以检测出图像是否被嵌入了秘密信息。具体来说,我们可以计算出嵌入前后直方图的相关统计量,例如平均值、标准差、方差等,并通过阈值判决来确定是否存在嵌入。该方法的优点是简单直观,但缺点是容易受到一些图像处理操作的影响,如直方图均衡化和图像压缩。

  2. 频率统计

    在随机LSB嵌入中,秘密信息被随机地嵌入到图像的LSB位中,因此像素值的LSB位分布应该接近于均匀分布。因此,我们可以通过对像素值的LSB位进行频率统计来检测是否存在嵌入。具体来说,我们可以计算出图像中每个像素值的LSB位的频数分布,并将其与理论上的均匀分布进行比较。该方法的优点是比较灵敏,但是也容易受到一些图像处理操作的影响。

    下面是一个针对随机LSB嵌入的检测方法的示例代码,该方法是基于图像的像素值LSB位分布进行频率统计:

    import cv2
    import numpy as np
    from scipy.stats import chi2
    
    def random_LSB_detection(image_path, k=8, alpha=0.01):
        # 读取图像并转换为灰度图
        img = cv2.imread(image_path, cv2.IMREAD_GRAYSCALE)
        # 获取像素值矩阵
        pixel_vals = np.array(list(img.flatten()))
        # 将像素值转换为二进制形式
        pixel_bits = np.unpackbits(pixel_vals)
        # 获取LSB位
        LSB_bits = pixel_bits[-1]
        # 对LSB位进行分组
        group_size = int(len(LSB_bits) / k)
        LSB_groups = np.array([LSB_bits[i:i+group_size] for i in range(0, len(LSB_bits), group_size)])
        # 统计每组中1的个数
        ones_counts = np.sum(LSB_groups, axis=1)
        # 计算期望值
        expected_counts = np.full(len(ones_counts), group_size / 2)
        # 计算卡方值
        chi_square = np.sum(np.power(ones_counts - expected_counts, 2) / expected_counts)
        # 计算自由度
        df = k - 1
        # 计算p值
        p_value = 1 - chi2.cdf(chi_square, df)
        # 判断是否嵌入随机LSB
        if p_value < alpha:
            print("The image may contain random LSB embedding.")
        else:
            print("The image does not contain random LSB embedding.")
    
    

    这段代码实现了基于卡方检验的随机LSB嵌入检测方法。和前面介绍的连续LSB嵌入检测方法类似,我们首先需要假设嵌入比特的位置,然后利用卡方检验来判断这一假设的合理性。

    假设隐写术采用随机LSB嵌入,嵌入比特位置不确定,但是我们可以假设比特嵌入位置在一定的范围内,并尝试在这个范围内遍历所有的可能位置。对于每个位置,我们可以计算出对应比特嵌入时,各像素值的出现次数,并据此计算出期望值和实际观测值之间的卡方值。如果卡方值超过一定的阈值,则认为该假设不成立,即嵌入比特的位置不在此范围内。

    需要注意的是,在随机LSB嵌入中,每个像素的LSB都有可能被嵌入比特,因此需要在嵌入比特的位置范围内遍历所有可能的嵌入位置。同时,由于随机LSB嵌入会使得每个像素的LSB比特都有可能被嵌入,因此需要在嵌入比特的位置范围内遍历所有可能的比特值,以计算卡方值。

    除了卡方检验之外,我们还可以利用线性回归来确定嵌入比特的位置。假设我们已经得到了一个可能的嵌入位置,我们可以计算出在该位置下每个像素值的LSB比特的平均值。由于随机LSB嵌入会使得每个像素的LSB比特都有可能被嵌入,因此在嵌入比特的位置范围内遍历所有可能的嵌入位置,并计算出每个位置下的平均LSB比特值。然后我们可以将这些平均LSB比特值作为自变量,将对应的像素值作为因变量,进行线性回归分析。如果得到的回归系数明显不为零,则说明该位置是嵌入比特的可能位置。

    下面给出利用卡方检验和线性回归来检测随机LSB嵌入的具体代码实现:

    function [stegoFlag, p_value] = chi_square_regression_detection(image, alpha)
    % chi_square_regression_detection: Detects random LSB embedding using chi-square test and linear regression
    % Inputs:
    %   - image: the cover image
    %   - alpha: the significance level of the chi-square test
    % Outputs:
    %   - stegoFlag: 1 if steganography is detected, 0 otherwise
    %   - p_value: the p-value of the chi-square test
        [rows,cols]=size(image);
        k=1; % k value for LSB replacement
        bitPlane=2^k; % binary pattern for selecting LSB
        imageSize=rows*cols; % size of the cover image
        embeddingRate=0.5; % the embedding rate of the steganography algorithm
        numEmbedPixels=ceil(embeddingRate*imageSize); % number of embedded pixels
        numExperiments=10; % number of experiments
        stegoFlag=zeros(numExperiments,1); % initialize stego flag
        p_value=zeros(numExperiments,1); % initialize p value
        for i=1:numExperiments
            % Generate random message
            message=randi([0 1],numEmbedPixels,1);
            % Embed message
            stegoImage=double(image); % convert cover image to double precision
            % Randomly select pixels for embedding
            pixelIndex=randperm(imageSize,numEmbedPixels);
            % Extract the selected pixel values
            pixelValues=stegoImage(pixelIndex);
            % Modify the least significant bit of the selected pixels
            pixelValues=bitset(pixelValues,k,message);
            % Replace the original pixel values with the modified values
            stegoImage(pixelIndex)=pixelValues;
            % Calculate chi-square value
            observed=histc(stegoImage(:),0:255);
            expected=histc(image(:),0:255);
            expected=expected/sum(expected)*sum(observed);
            chi2=sum((observed-expected).^2./expected);
            df=numel(observed)-1;
            p=1-chi2cdf(chi2,df);
            p_value(i)=p;
            if p<alpha
                stegoFlag(i)=1;
            end
            % Calculate linear regression
            X=double(image(:));
            Y=double(stegoImage(:));
            A=[ones(size(X)) X];
            b=Y;
            p=A\b;
            % Calculate slope and intercept
            slope=p(2);
            intercept=p(1);
            % Calculate residual error
            error=Y-A*p;
            % Calculate standard deviation
            std_error=sqrt(sum(error.^2)/(numel(X)-2));
            % Calculate t-statistic
            t_stat=slope/std_error;
            % Calculate p-value
            p=2*(1-tcdf(abs(t_stat),numel(X)-2));
            p_value(i)=p;
            if p<alpha
                stegoFlag(i)=1;
            end
        end
        stegoFlag=max(stegoFlag);
        p_value=min(p_value);
    end
    
    

    输出为检测结果和卡方检验的p值,其中p值表示嵌入数据的概率。当p值越低时,说明数据越可能被嵌入其中。与连续LSB嵌入检测方法类似,我们可以利用假设检验中的p值来判断嵌入数据的存在性。当p值小于预设的显著性水平时,我们拒绝原假设,即判断数据中存在嵌入数据的可能性较大。

    和连续LSB嵌入检测方法的代码实现类似,随机LSB嵌入检测方法的实现也需要考虑的问题有很多,例如嵌入比特的数量、嵌入位置的选择等等。因此,在实际应用中,需要根据具体情况进行参数调整和优化,以获得更好的检测效果。

    下面给出随机LSB嵌入检测方法的一个函数:

    import numpy as np
    from scipy.stats import chisquare, linregress
    
    def detect_random_LSB(data):
        """
        检测随机LSB嵌入的函数
        
        参数:
        data: 待检测的数据
        
        返回值:
        result: 检测结果,1表示存在嵌入数据的可能性较大,0表示不存在嵌入数据的可能性较大
        pvalue: 嵌入数据的概率
        """
        
        # 将数据转换为二进制字符串
        binary_data = np.unpackbits(data)
        binary_data = binary_data.astype(np.int)
        
        # 计算每个比特位的频数
        bit_count = np.zeros(8)
        for i in range(8):
            bit_count[i] = np.sum(binary_data[i::8])
            
        # 计算比特位频数的期望值
        total_bits = len(binary_data)
        expected_count = total_bits / 8
        
        # 计算卡方值和p值
        chisq, pvalue = chisquare(bit_count, f_exp=expected_count)
        
        # 判断嵌入数据的可能性
        if pvalue < 0.01:
            result = 1
        else:
            result = 0
            
        return result, pvalue
    
    

    该函数输入为待检测的图像和显著性水平α,输出为检测结果和卡方检验的p值。输出为检测结果和卡方检验的p值,其中p值表示嵌入数据的概率。当p值越低时,说明数据越可能被嵌入其中。与连续LSB嵌入检测方法类似,我们可以利用假设检验中的p值来判断嵌入数据的存在性。当p值小于预设的显著性水平时,我们拒绝原假设,即判断数据中存在嵌入数据的可能性较大。在实际应用中,可以将该函数嵌入到一个更完整的LSB嵌入检测系统中,以实现对随机LSB嵌入的检测和识别。

LSB嵌入检测系统

将前面介绍的随机LSB嵌入检测方法与连续LSB嵌入检测方法结合起来,可以实现一个更完整的LSB嵌入检测系统。该系统可以对任意类型的LSB嵌入进行检测和识别,包括随机LSB嵌入和连续LSB嵌入。具体来说,该系统可以先通过连续LSB嵌入检测方法对待检测图像进行处理,判断该图像是否存在连续的LSB嵌入。如果存在连续的LSB嵌入,则说明该图像可能被嵌入了秘密信息。接着,再通过随机LSB嵌入检测方法对待检测图像进行处理,判断该图像是否存在随机的LSB嵌入。如果存在随机的LSB嵌入,则说明该图像被嵌入的秘密信息中可能包含了隐藏的信息,需要进一步进行分析和解密。

该LSB嵌入检测系统的优点在于能够对不同类型的LSB嵌入进行综合检测,能够提高嵌入信息的检测率和准确率。另外,该系统可以通过调整阈值等参数来适应不同的应用场景和检测需求。

需要注意的是,该系统在实际应用中仍然存在一些局限性。例如,该系统可能会受到JPEG压缩等图像处理方式的影响,从而导致检测结果不准确。此外,该系统还需要对大量的图像数据进行训练和测试,才能达到较高的检测准确率。因此,在实际应用中需要综合考虑各种因素,并不断优化和改进该系统的设计和实现。

综上所述,LSB嵌入检测是一项重要的信息安全技术,在信息隐藏和信息保护等领域具有广泛的应用前景。不同的LSB嵌入检测方法有各自的优缺点和适用范围,可以根据具体应用需求选择合适的检测方法或将多种方法结合起来使用,以提高检测的准确率和鲁棒性。

标签:嵌入,LSB,检测,隐写,像素,分类器,算法,图像
From: https://www.cnblogs.com/kenneth2012/p/17161550.html

相关文章

  • LeetCode 周赛 334,在算法的世界里反复横跳
    本文已收录到AndroidFamily,技术和职场问题,请关注公众号[彭旭锐]提问。大家好,我是小彭。今天是LeetCode第334场周赛,你参加了吗?这场周赛考察范围比较基础,整体难度......
  • python算法基础
    一、简介定义和特征定义:算法(Algorithm)是指解题方案的准确而完整的描述,是一系列解决问题的清晰指令,算法代表着用系统的方法描述解决问题的策略机制。也就是说,能够对一定......
  • JAVA加载PMML算法模型
    注:加载失败时尝试修改pmml文件版本为4.3依赖<dependency><groupId>org.jpmml</groupId><artifactId>pmml-evaluator</artifactId><version>1.4.1</versi......
  • topN算法问题
    问题:如何在10亿个整数中找出前1000个最大的数?小顶堆堆排序首先,我们需要构建一个大小为N(1000)的小顶堆,小顶堆的性质如下:每一个父节点的值都小于左右孩子节点,然后依次从......
  • 【算法笔记】Day of Week
    DayofWeek时间限制:1Sec  内存限制:32MB提交:2252  解决:692 题目描述WenowusetheGregorianstyleofdatinginRussia.Theleapyearsareyearswith......
  • stl算法汇总
          ......
  • 数的进制转换【《算法竞赛进阶指南》】
    数的进制转换编写一个程序,可以实现将一个数字由一个进制转换为另一个进制。这里有62个不同数位{0−9,A−Z,a−z}。输入格式第一行输入一个整数,代表接下来的行数。......
  • 算法刷题 Day 57 | ● 647. 回文子串 ● 516.最长回文子序列 ● 动态规划总结篇
    详细布置647.回文子串动态规划解决的经典题目,如果没接触过的话,别硬想直接看题解。https://programmercarl.com/0647.%E5%9B%9E%E6%96%87%E5%AD%90%E4%B8%B2.htm......
  • 力扣-算法C++-简单题
    1、给定一个整数数组nums 和一个整数目标值target,请你在该数组中找出和为目标值target 的那 两个 整数,并返回它们的数组下标。你可以假设每种输入只会对应一个答......
  • 各类梯度下降算法的numpy实现
    layout:posttitle:深度学习subtitle:梯度下降算法实现description:梯度下降算法实现date:2022-10-25categories:deeplearningtags:codepy......