首页 > 其他分享 >数据处理和分析之数据预处理:异常值处理(Outlier Detection):统计学方法检测异常值

数据处理和分析之数据预处理:异常值处理(Outlier Detection):统计学方法检测异常值

时间:2024-10-13 12:49:34浏览次数:3  
标签:Outlier df 异常 data Detection np IQR 数据

数据处理和分析之数据预处理:异常值处理(Outlier Detection):统计学方法检测异常值

在这里插入图片描述

异常值的概念与重要性

异常值的定义

在数据集中,异常值(Outliers)指的是那些显著偏离其他观测值的数值。这些数值可能由于测量错误、数据录入错误、实验异常或其他非典型因素产生。异常值的存在可以对数据的统计特性、模型的准确性和数据分析的结论产生重大影响。

异常值对数据分析的影响

异常值能够扭曲数据的分布,导致统计量如平均值、标准差等失真。在构建预测模型时,异常值可能使模型过度拟合,降低模型的泛化能力。此外,异常值还可能掩盖数据中的真实模式,影响数据可视化的效果,使分析结果不可靠。

异常值检测的目的

异常值检测的目的是识别并处理数据集中的异常值,以确保后续数据分析的准确性和可靠性。处理异常值的方法包括删除、修正或隔离异常值,具体取决于异常值的性质和分析目标。通过有效检测和处理异常值,可以提高数据质量,使模型更加稳健,数据分析结果更加可信。

统计学方法检测异常值

基于Z-Score的方法

Z-Score是一种常用的统计学方法,用于衡量一个观测值与数据集平均值之间的标准差数。一个高Z-Score值表示该观测值远离数据集的平均值,可能是一个异常值。

原理

Z-Score计算公式如下:

Z = ( X − μ ) σ Z = \frac{(X - \mu)}{\sigma} Z=σ(X−μ)​

其中, X X X是观测值, μ \mu μ是数据集的平均值, σ \sigma σ是数据集的标准差。

示例代码

假设我们有一个包含1000个观测值的数据集,我们使用Python的numpypandas库来计算Z-Score并识别异常值。

import numpy as np
import pandas as pd

# 创建数据集
np.random.seed(0)
data = np.random.normal(0, 1, 1000)

# 转换为DataFrame
df = pd.DataFrame(data, columns=['Value'])

# 计算Z-Score
df['Z_Score'] = (df['Value'] - df['Value'].mean()) / df['Value'].std()

# 定义异常值阈值
threshold = 3

# 标记异常值
df['Outlier'] = np.where(np.abs(df['Z_Score']) > threshold, True, False)

# 打印异常值
print(df[df['Outlier'] == True])

解释

在上述代码中,我们首先创建了一个正态分布的数据集。然后,我们计算了每个观测值的Z-Score,并使用一个阈值(通常为3)来标记那些Z-Score绝对值大于阈值的观测值为异常值。这种方法适用于数据集呈正态分布的情况。

基于IQR的方法

IQR(Interquartile Range)即四分位数范围,是另一种用于检测异常值的有效方法。IQR是上四分位数(Q3)与下四分位数(Q1)之间的差值,可以用来识别数据集中的异常值。

原理

异常值的检测基于IQR的1.5倍原则。任何低于 Q 1 − 1.5 × I Q R Q1 - 1.5 \times IQR Q1−1.5×IQR或高于 Q 3 + 1.5 × I Q R Q3 + 1.5 \times IQR Q3+1.5×IQR的观测值都被视为异常值。

示例代码

使用Python的pandas库,我们可以轻松地计算IQR并检测异常值。

import pandas as pd

# 创建数据集
data = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 100]

# 转换为DataFrame
df = pd.DataFrame(data, columns=['Value'])

# 计算IQR
Q1 = df['Value'].quantile(0.25)
Q3 = df['Value'].quantile(0.75)
IQR = Q3 - Q1

# 定义异常值范围
lower_bound = Q1 - 1.5 * IQR
upper_bound = Q3 + 1.5 * IQR

# 标记异常值
df['Outlier'] = np.where((df['Value'] < lower_bound) | (df['Value'] > upper_bound), True, False)

# 打印异常值
print(df[df['Outlier'] == True])

解释

在这个例子中,我们有一个包含一个显著异常值(100)的数据集。通过计算IQR,我们确定了异常值的范围,并标记了所有超出这个范围的观测值。这种方法适用于数据集呈偏态分布的情况,因为它不依赖于数据的正态性。

基于箱线图的方法

箱线图(Boxplot)是一种图形化表示数据分布的方法,可以直观地识别异常值。箱线图基于数据的五数概括(最小值、下四分位数、中位数、上四分位数、最大值)来绘制,异常值通常被表示为箱线图外部的点。

示例代码

使用matplotlibseaborn库,我们可以绘制箱线图并直观地识别异常值。

import matplotlib.pyplot as plt
import seaborn as sns

# 创建数据集
data = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 100]

# 绘制箱线图
sns.boxplot(data)
plt.show()

解释

箱线图显示了数据的分布情况,包括中位数、四分位数和异常值。在图中,任何位于箱线图“须”之外的点都被视为异常值。这种方法不仅适用于数据可视化,也适用于异常值的初步识别。

结论

异常值检测是数据预处理中的重要步骤,能够显著提高数据分析的准确性和可靠性。通过使用Z-Score、IQR和箱线图等统计学方法,我们可以有效地识别并处理数据集中的异常值。选择合适的方法取决于数据的分布特性和分析的具体需求。

数据处理和分析之数据预处理:统计学方法检测异常值

在数据预处理阶段,异常值检测是一个关键步骤,它帮助我们识别并处理那些显著偏离数据集其他值的观测值。本教程将详细介绍几种基于统计学的异常值检测方法,包括基于平均值和标准差的方法、基于中位数和四分位数的方法、Z-分数方法以及箱线图方法。

基于平均值和标准差的方法

原理

这种方法基于数据的正态分布假设。平均值(均值)表示数据集的中心趋势,而标准差则衡量数据的离散程度。异常值通常定义为距离平均值超过一定数量标准差的观测值。

内容

  • 计算平均值和标准差
  • 确定异常值的阈值
  • 识别并处理异常值
示例代码
import numpy as np

# 示例数据
data = np.array([10, 12, 12, 13, 12, 11, 14, 15, 100, 13])

# 计算平均值和标准差
mean = np.mean(data)
std_dev = np.std(data)

# 定义异常值阈值(例如,平均值加减3倍标准差)
threshold = 3 * std_dev

# 识别异常值
outliers = data[(data > mean + threshold) | (data < mean - threshold)]

# 输出异常值
print("异常值:", outliers)

解释

在上述代码中,我们首先计算了数据集的平均值和标准差。然后,我们定义了一个阈值,通常为平均值加减3倍标准差,这是基于经验法则,即在正态分布中,大约99.7%的数据点位于平均值的3个标准差范围内。最后,我们使用条件语句来识别并输出异常值。

基于中位数和四分位数的方法

原理

这种方法不依赖于数据的正态分布假设,而是使用中位数和四分位数来识别异常值。中位数是数据集中的中间值,而四分位数则将数据集分为四等份,Q1是下四分位数,Q3是上四分位数。异常值通常定义为低于Q1-1.5倍IQR或高于Q3+1.5倍IQR的观测值,其中IQR是四分位距,即Q3-Q1。

内容

  • 计算中位数和四分位数
  • 确定异常值的阈值
  • 识别并处理异常值
示例代码
import numpy as np

# 示例数据
data = np.array([10, 12, 12, 13, 12, 11, 14, 15, 100, 13])

# 计算中位数和四分位数
Q1 = np.percentile(data, 25)
Q3 = np.percentile(data, 75)
IQR = Q3 - Q1

# 定义异常值阈值
lower_bound = Q1 - 1.5 * IQR
upper_bound = Q3 + 1.5 * IQR

# 识别异常值
outliers = data[(data < lower_bound) | (data > upper_bound)]

# 输出异常值
print("异常值:", outliers)

解释

在本例中,我们使用了numpy库来计算数据的四分位数和IQR。然后,我们根据IQR的1.5倍来确定异常值的阈值。这种方法对于非正态分布的数据集更为稳健,因为它不受极端值的影响。

Z-分数方法

原理

Z-分数(Z-score)是观测值与平均值的差除以标准差,它衡量观测值与数据集平均值之间的标准差数。异常值通常定义为Z-分数绝对值大于3的观测值。

内容

  • 计算Z-分数
  • 确定异常值的阈值
  • 识别并处理异常值
示例代码
import numpy as np

# 示例数据
data = np.array([10, 12, 12, 13, 12, 11, 14, 15, 100, 13])

# 计算平均值和标准差
mean = np.mean(data)
std_dev = np.std(data)

# 计算Z-分数
z_scores = (data - mean) / std_dev

# 定义异常值阈值
threshold = 3

# 识别异常值
outliers = data[np.abs(z_scores) > threshold]

# 输出异常值
print("异常值:", outliers)

解释

Z-分数方法与基于平均值和标准差的方法类似,但它直接计算每个观测值的Z-分数,并使用Z-分数的绝对值来识别异常值。这种方法同样适用于正态分布的数据集。

箱线图方法

原理

箱线图(Boxplot)是一种用于显示一组数据分布情况的统计图表。它基于数据的五数概括(最小值、下四分位数、中位数、上四分位数、最大值)来识别异常值。异常值通常定义为低于下四分位数减去1.5倍IQR或高于上四分位数加上1.5倍IQR的观测值。

内容

  • 绘制箱线图
  • 识别异常值
  • 处理异常值
示例代码
import matplotlib.pyplot as plt
import numpy as np

# 示例数据
data = np.array([10, 12, 12, 13, 12, 11, 14, 15, 100, 13])

# 绘制箱线图
plt.boxplot(data)
plt.show()

# 计算中位数和四分位数
Q1 = np.percentile(data, 25)
Q3 = np.percentile(data, 75)
IQR = Q3 - Q1

# 定义异常值阈值
lower_bound = Q1 - 1.5 * IQR
upper_bound = Q3 + 1.5 * IQR

# 识别异常值
outliers = data[(data < lower_bound) | (data > upper_bound)]

# 输出异常值
print("异常值:", outliers)

解释

箱线图不仅是一种可视化工具,用于直观地展示数据的分布,而且还可以用来识别异常值。在绘制箱线图后,我们可以观察到数据的分布情况,包括异常值的位置。然后,我们使用与基于中位数和四分位数方法相同的方式计算异常值的阈值,并识别异常值。

通过上述方法,我们可以有效地识别数据集中的异常值,并根据具体的应用场景选择合适的方法进行处理。这些统计学方法在数据预处理阶段是不可或缺的,它们帮助我们确保数据的质量,从而提高后续数据分析和建模的准确性。

异常值的处理策略

在数据预处理阶段,异常值的处理是一个关键步骤,它直接影响到后续数据分析和模型构建的准确性。异常值,即数据集中显著偏离其他观测值的数值,可能由测量错误、数据录入错误或真实但极端的事件引起。处理异常值的策略主要包括删除异常值、修正异常值以及保留并解释异常值。

删除异常值

原理

删除异常值是最直接的处理方式,适用于异常值由错误引起的情况。统计学方法如标准差法、箱型图法等可以用来识别并删除异常值。

内容

标准差法

标准差法基于数据的正态分布假设,将距离均值超过一定标准差(通常为3)的值视为异常值。

箱型图法

箱型图法利用数据的四分位数来识别异常值,定义异常值为低于下四分位数减去1.5倍四分位数间距或高于上四分位数加上1.5倍四分位数间距的值。

示例代码

假设我们有一组数据,使用标准差法和箱型图法来识别并删除异常值。

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt

# 创建示例数据
data = np.random.normal(0, 1, 1000)
data = np.append(data, [10, -10])  # 添加异常值

# 转换为DataFrame
df = pd.DataFrame(data, columns=['Value'])

# 标准差法删除异常值
mean = df['Value'].mean()
std = df['Value'].std()
df_std = df[(df['Value'] - mean).abs() <= 3 * std]

# 箱型图法删除异常值
Q1 = df['Value'].quantile(0.25)
Q3 = df['Value'].quantile(0.75)
IQR = Q3 - Q1
df_box = df[(df['Value'] >= Q1 - 1.5 * IQR) & (df['Value'] <= Q3 + 1.5 * IQR)]

# 绘制原始数据和处理后的数据的箱型图
plt.figure(figsize=(12, 6))
plt.subplot(1, 3, 1)
plt.boxplot(data)
plt.title('原始数据')

plt.subplot(1, 3, 2)
plt.boxplot(df_std['Value'])
plt.title('标准差法处理后')

plt.subplot(1, 3, 3)
plt.boxplot(df_box['Value'])
plt.title('箱型图法处理后')

plt.show()

描述

上述代码首先生成了1000个正态分布的随机数,并添加了两个明显的异常值(10和-10)。然后,使用标准差法和箱型图法分别处理数据,删除异常值。最后,通过绘制箱型图来直观展示原始数据和处理后的数据的差异。

修正异常值

原理

修正异常值是指将异常值调整到合理范围内,适用于异常值由测量误差或数据录入错误引起的情况。修正方法包括使用中位数、均值或邻近值来替换异常值。

内容

使用中位数修正

中位数不受异常值影响,因此可以作为修正异常值的良好选择。

使用均值修正

均值反映了数据的中心趋势,但在数据集包含异常值时,均值可能会被扭曲。

使用邻近值修正

基于数据点的邻近值来修正异常值,可以使用K近邻算法等方法。

示例代码

使用中位数修正异常值的示例。

# 使用中位数修正异常值
median = df['Value'].median()
df_median = df.copy()
df_median.loc[(df_median['Value'] - mean).abs() > 3 * std, 'Value'] = median

# 绘制修正后的数据的箱型图
plt.figure(figsize=(12, 2))
plt.boxplot(df_median['Value'])
plt.title('使用中位数修正异常值后')
plt.show()

描述

代码中,我们首先计算了数据的中位数,然后创建了数据的副本,避免直接修改原始数据。接着,将距离均值超过3个标准差的值替换为中位数,最后绘制了修正后的数据的箱型图。

异常值的保留与解释

原理

保留异常值并尝试解释其原因,适用于异常值由真实但极端的事件引起的情况。保留异常值有助于发现数据中的潜在模式或异常情况。

内容

异常值的保留

保留异常值,不进行任何处理,直接用于后续分析。

异常值的解释

通过进一步的数据分析或领域知识,解释异常值出现的原因。

示例代码

保留异常值并进行初步分析的示例。

# 保留异常值并进行初步分析
df_retain = df.copy()

# 绘制保留异常值的数据的直方图
plt.figure(figsize=(12, 2))
plt.hist(df_retain['Value'], bins=50)
plt.title('保留异常值的数据直方图')
plt.show()

描述

代码中,我们保留了异常值,并绘制了数据的直方图,以直观展示数据的分布情况,包括异常值的位置。保留异常值有助于在后续分析中发现数据的全貌,但需要结合领域知识来解释异常值的出现。


通过上述策略,我们可以根据异常值的性质和数据集的特点,选择合适的方法来处理异常值,从而提高数据分析的准确性和可靠性。

案例分析与实践

异常值检测的Python实现

在数据预处理阶段,异常值检测是一个关键步骤,它可以帮助我们识别并处理那些显著偏离数据集其他值的观测值。异常值的存在可能会对数据分析和预测模型的准确性产生负面影响。本节将通过一个具体的案例,使用Python中的统计学方法来检测异常值。

数据样例

假设我们有一个关于房屋价格的数据集,其中包含房屋的面积(平方米)和价格(万元)。

import pandas as pd
import numpy as np

# 创建一个简单的数据集
data = {
    'Area': [50, 60, 70, 80, 90, 100, 110, 120, 130, 140, 150, 160, 170, 180, 190, 200, 210, 220, 230, 240, 250, 500],
    'Price': [30, 35, 40, 45, 50, 55, 60, 65, 70, 75, 80, 85, 90, 95, 100, 105, 110, 115, 120, 125, 130, 500]
}
df = pd.DataFrame(data)

使用统计学方法处理异常值的步骤

1. 计算描述性统计量
# 计算描述性统计量
print(df.describe())
2. 确定异常值的阈值

我们可以使用标准差或四分位数范围(IQR)来确定异常值的阈值。

3. 使用标准差方法检测异常值
# 使用标准差方法检测异常值
mean = np.mean(df['Area'])
std = np.std(df['Area'])
cut_off = std * 3
lower, upper = mean - cut_off, mean + cut_off
outliers = df[(df['Area'] < lower) | (df['Area'] > upper)]
print("标准差方法检测到的异常值:")
print(outliers)
4. 使用IQR方法检测异常值
# 使用IQR方法检测异常值
Q1 = df['Area'].quantile(0.25)
Q3 = df['Area'].quantile(0.75)
IQR = Q3 - Q1
lower_bound = Q1 - 1.5 * IQR
upper_bound = Q3 + 1.5 * IQR
outliers_iqr = df[(df['Area'] < lower_bound) | (df['Area'] > upper_bound)]
print("IQR方法检测到的异常值:")
print(outliers_iqr)

案例研究:异常值对预测模型的影响

1. 构建预测模型
from sklearn.linear_model import LinearRegression
from sklearn.model_selection import train_test_split

# 分割数据集
X = df['Area'].values.reshape(-1, 1)
y = df['Price'].values.reshape(-1, 1)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 构建线性回归模型
model = LinearRegression()
model.fit(X_train, y_train)
2. 模型预测与评估
# 模型预测
y_pred = model.predict(X_test)

# 评估模型
from sklearn.metrics import mean_squared_error
mse = mean_squared_error(y_test, y_pred)
print("模型的均方误差:", mse)
3. 移除异常值后重新构建模型
# 移除异常值
df_clean = df[(df['Area'] > lower_bound) & (df['Area'] < upper_bound)]

# 重新分割数据集
X_clean = df_clean['Area'].values.reshape(-1, 1)
y_clean = df_clean['Price'].values.reshape(-1, 1)
X_train_clean, X_test_clean, y_train_clean, y_test_clean = train_test_split(X_clean, y_clean, test_size=0.2, random_state=42)

# 构建线性回归模型
model_clean = LinearRegression()
model_clean.fit(X_train_clean, y_train_clean)

# 模型预测
y_pred_clean = model_clean.predict(X_test_clean)

# 评估模型
mse_clean = mean_squared_error(y_test_clean, y_pred_clean)
print("移除异常值后模型的均方误差:", mse_clean)

通过比较模型的均方误差,我们可以观察到移除异常值后,模型的预测性能得到了显著的提升。

结论

异常值检测是数据预处理中不可或缺的一部分,通过使用统计学方法,如标准差和IQR,我们可以有效地识别并处理异常值,从而提高预测模型的准确性和可靠性。在实际应用中,选择合适的方法并结合业务场景进行异常值处理是非常重要的。

异常值检测的局限性

在数据预处理阶段,异常值检测是至关重要的一步,它帮助我们识别并处理那些显著偏离数据集其他值的观测值。然而,尽管统计学方法在异常值检测中广泛使用,它们也存在一定的局限性。以下几点是值得注意的:

  • 假设依赖性:许多统计方法假设数据遵循特定的分布,如正态分布。当数据的实际分布与假设不符时,这些方法可能无法准确识别异常值。
  • 多维数据的复杂性:在高维数据中,异常值可能在单个维度上看起来正常,但在多个维度的组合中则显著异常。传统的统计方法可能难以捕捉这种多维异常。
  • 异常值的主观性:什么构成异常值往往依赖于具体的应用场景和分析目标。在某些情况下,被视为异常的值可能对分析具有重要价值。
  • 小样本问题:在样本量较小的数据集中,异常值的存在可能对统计方法的假设产生更大影响,导致检测结果的不稳定性。

示例:小样本问题

假设我们有一组小样本数据,我们尝试使用Z-score方法来检测异常值。

import numpy as np
from scipy import stats

# 小样本数据
data = np.array([10, 12, 12, 13, 12, 14, 15, 16, 200])

# 计算Z-score
z_scores = stats.zscore(data)

# 找出Z-score大于3的异常值
outliers = np.where(np.abs(z_scores) > 3)

print("异常值的索引:", outliers)
print("异常值:", data[outliers])

在这个例子中,200明显是一个异常值,但因为样本量小,Z-score的计算可能受到异常值本身的影响,导致结果的不准确。

结合其他方法进行异常值处理

为了克服统计学方法的局限性,可以结合其他方法来提高异常值检测的准确性和鲁棒性。以下是一些常见的结合策略:

  • 使用机器学习方法:如Isolation Forest、Local Outlier Factor等,这些方法可以处理非正态分布和高维数据。
  • 基于领域知识的规则:结合行业或领域的专业知识,设定合理的阈值或规则来识别异常值。
  • 集成方法:结合多种异常值检测方法的结果,通过投票或加权平均来确定最终的异常值列表。

示例:Isolation Forest

Isolation Forest是一种基于树的异常值检测算法,特别适用于高维数据集。下面是一个使用Python的Scikit-learn库来应用Isolation Forest的示例。

import numpy as np
from sklearn.ensemble import IsolationForest

# 高维数据集
data = np.array([[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12], [100, 100, 100]])

# 创建Isolation Forest模型
model = IsolationForest(contamination=0.1)

# 训练模型
model.fit(data)

# 预测异常值
predictions = model.predict(data)

# 打印异常值预测结果
print("异常值预测结果:", predictions)

在这个例子中,[100, 100, 100]被模型识别为异常值。

异常值检测在高级数据分析中的应用

异常值检测在高级数据分析中扮演着关键角色,尤其是在以下领域:

  • 异常检测系统:如网络安全、金融交易监控,及时识别异常行为对于预防欺诈和攻击至关重要。
  • 质量控制:在制造业中,异常值检测可以帮助识别生产过程中的异常,从而提高产品质量。
  • 预测模型的准确性:在构建预测模型时,去除异常值可以提高模型的准确性和稳定性。

示例:异常值检测在预测模型中的应用

假设我们正在构建一个线性回归模型来预测房价,下面的代码展示了如何在训练模型前使用Z-score方法去除异常值。

import pandas as pd
from sklearn.linear_model import LinearRegression
from sklearn.model_selection import train_test_split
from scipy import stats

# 加载数据集
data = pd.read_csv('house_prices.csv')

# 计算Z-score
z_scores = stats.zscore(data['price'])

# 找出Z-score大于3的异常值
outliers = np.where(np.abs(z_scores) > 3)

# 去除异常值
data_clean = data.drop(data.index[outliers])

# 分割数据集
X_train, X_test, y_train, y_test = train_test_split(data_clean[['size', 'location']], data_clean['price'], test_size=0.2)

# 创建线性回归模型
model = LinearRegression()

# 训练模型
model.fit(X_train, y_train)

# 预测
predictions = model.predict(X_test)

# 打印预测结果
print("预测结果:", predictions)

在这个例子中,我们首先计算了房价的Z-score,然后去除了Z-score大于3的异常值,最后使用干净的数据集训练了一个线性回归模型。

通过结合多种方法和深入理解数据的特性,我们可以更有效地处理异常值,从而提高数据分析的准确性和可靠性。

标签:Outlier,df,异常,data,Detection,np,IQR,数据
From: https://blog.csdn.net/2401_87715305/article/details/142896964

相关文章

  • 数据处理和分析之数据预处理:异常值处理(Outlier Detection):基于密度的异常值检测方法
    数据处理和分析之数据预处理:异常值处理(OutlierDetection):基于密度的异常值检测方法数据处理和分析之数据预处理:异常值处理(OutlierDetection):基于密度的异常值检测方法引言异常值检测的重要性在数据科学和机器学习领域,异常值检测是数据预处理中的一个关键步骤。异......
  • RAC集群目录满后CRSD异常无法启动
    背景节点1数据库正常,集群crsd资源异常。节点2数据库及集群都挂掉,无法启动。之前两个节点发生过磁盘空间满的问题,现在启动crsd资源失败。分析节点1,尝试启动crsd进程报错CRS-1019,之前曾经报错ORA-09817:Writetoauditfilefailed。目录满报错ORA-09817:Writetoau......
  • 异常断链的惨痛经历!拯救Air780EP模块紧急项目
    ​ 必须要吐槽一下:最近被老板驱使,要用Air780EP模块做几个紧急项目。。。就怕紧急项目,时间紧任务重,遇到了一些棘手问题,可把我给折腾死了……这里把遇到的问题,排查记录下来,看能不能帮到因遇到类似的问题,并且一直没找到原因,而被老板要求加班解决的兄弟们。 一、相关背景简介 ......
  • java异常捕获-cnblog
    java异常捕获1异常概述异常是一个程序执行期间发生的事件,他中断了正在执行的程序2异常的抛出和捕获做一个案例字符串转int异常packagenb;publicclassNaaa{publicstaticvoidmain(String[]args){Stringa="tttt";intage=Inte......
  • JVM异常现象解析
    1、Java进程内存不回落异常现象:针对Java应用进程进行压力测试,在压测过程中进程内存逐渐升高,但在压测结束后,进程占用内存仍然一直很高不回落,奇怪的是此时堆内存占用其实很低。即Java应用一直占用高内存并且在空闲时也并未将内存归还给操作系统,这与通常的认知不同。“JVM的垃......
  • (系列六).net8 全局异常捕获机制
    说明  该文章是属于OverallAuth2.0系列文章,每周更新一篇该系列文章(从0到1完成系统开发)。   该系统文章,我会尽量说的非常详细,做到不管新手、老手都能看懂。   说明:OverallAuth2.0是一个简单、易懂、功能强大的权限+可视化流程管理系统。友情提醒:本篇文章是属于系......
  • springboot 项目 统一 返回结果 统一 异常
    统一返回结果统一结果返回目前的前后端开发大部分数据的传输格式都是json,因此定义一个统一规范的数据格式有利于前后端的交互与UI的展示。统一结果的一般形式是否响应成功;响应状态码;状态码描述;响应数据其他标识符统一结果类在项目目录下新建一个common包......
  • 2024.10.11(自定义异常)
    自定义异常当程序中出现了某些“错误”,但该错误信息并没有在Throwable子类中描述处理,这个时候可以自己设计异常类,用于描述该错误信息。自定义异常的步骤定义类:自定义异常类名(程序员自己写)继承Exception或RuntimeException如果继承Exception,属于编译异常如果继承RuntimeExc......
  • 【异常错误】RuntimeError: CUDA error: device-side assert triggered 遇到这种错误
    遇到的错误:运行的时候突然就这样了 /pytorch/aten/src/ATen/native/cuda/Indexing.cu:699:indexSelectLargeIndex:block:[283,0,0],thread:[56,0,0]Assertion`srcIndex<srcSelectDimSize`failed./pytorch/aten/src/ATen/native/cuda/Indexing.cu:699:indexSele......
  • JVM系列1:深入分析Java虚拟机堆和栈及OutOfMemory异常产生原因
    JVM系列1:深入分析Java虚拟机堆和栈及OutOfMemory异常产生原因前言JVM系列文章如无特殊说明,一些特性均是基于HotSpot虚拟机和JDK1.8版本讲述。下面这张图我想对于每个学习Java的人来说再熟悉不过了,这就是整个JDK的关系图: 从上图我们可以看到,JavaVirtualMachine位于最底......