首页 > 其他分享 >GWAS:表型的标准化(the normalization of phenotype)

GWAS:表型的标准化(the normalization of phenotype)

时间:2023-06-20 22:14:44浏览次数:61  
标签:GWAS 样本 标准化 表型 phenotype scores 正态分布 normalization

GWAS表型的标准化方法一般有Quantile normalization、Inverse rank normalization、Z-score normalization等。

各自区别如下:

一、Quantile normalization

该方法将每个样本中表型值进行排序,然后将其规范化到一个标准分布,通常是正态分布。规范化是通过将每个样本的分布等同于目标分布来完成的,使得同样比例的样本落在目标分布的每个值下方、上方或相等。这种方法确保了所有样本中表型的分布是一致的。
优点:可以消除由于偏斜导致的数据极端值和异常值的影响,而且对小批量数据的处理效果比较好。

使用该方法进行表型标准化的文章有:

1. Genome-wide association studies of brain imaging phenotypes in UK Biobank[J]. Nature, 2018, 562(7726): 210-216.

To ameliorate this, we quantile-normalized each of the image-derived phenotypes (IDPs) before association testing. This transformation also helped to avoid undue influence of outlier values.
https://www.nature.com/articles/s41586-018-0571-7

2. A multiple-phenotype imputation method for genetic studies[J]. Nature genetics, 2016, 48(4): 466-472.

Traits were mean and variance standardized and quantile normalized before analysis.
https://www.nature.com/articles/ng.3513

3. Components of genetic associations across 2,138 phenotypes in the UK Biobank highlight adipocyte biology[J]. Nature communications, 2019, 10(1): 4064.

We applied quantile normalization for phenotype (--pheno-quantile-normalize option), where we fit a linear model with covariates and transform the phenotypes to normal distribution N(0,1).
https://www.nature.com/articles/s41467-019-11953-9

二、Inverse rank normalization

一种将数据转换为正态分布的方法。该方法按照数据的大小对其进行排序,并将它们转换为百分位(即在所有数据中占据的位置百分比),并使用累积分布函数将这些百分位值转换为标准正态分布中的z分数。因此,排名越靠前的数据将被映射到较大的正态分布的值,排名越靠后的数据将被映射到较小的正态分布的值。这种方法适用于数据集中有许多离群值或非正态分布时,它可以将数据的分布形态转化为近似正态分布,方便后续的统计分析。

使用该方法进行表型标准化的文章有:

Association analyses of 249,796 individuals reveal 18 new loci associated with body mass index[J]. Nature genetics, 2010, 42(11): 937-948.

BMI was adjusted for age, age2 and other appropriate covariates (for example, principal components) and inverse normally transformed to a mean of 0 and a standard deviation of 1.
https://www.nature.com/articles/ng.686

三、Z-score normalization

该方法是通过计算每个样本的Z-score来标准化所有样本中观察到的表型值。Z-score 测量了一个特定样本的表型与所有样本的均值表型值相差多少个标准差。这种方法允许比较不同单位或量表的表型。

使用该方法进行表型标准化的文章有:

A genome-wide association study in 19 633 Japanese subjects identified LHX3-QSOX2 and IGF1 as adult height loci[J]. Human molecular genetics, 2010, 19(11): 2303-2312.

The scores were then normalized as Z scores. The effects of the Z scores on height were evaluated using the multivariate linear regression model incorporating height as a dependent variable and the Z scores, gender and age as the independent variables, using R statistical software. Differences in height between the subjects with low Z scores (less than or equal to −2) and high Z scores (≥2) were obtained by comparing the means of the non-adjusted height between subject groups.
https://academic.oup.com/hmg/article-abstract/19/11/2303/579594

总结

Quantile normalization 适用于偏态分布或异常值较多的情况, Inverse rank normalization 在样本量较小时具有更高的准确性,Z-score 适用于具有不同单位或量表的表型,允许比较不同单位或量表的表型。
从我查阅的文献来看,在GWAS中,使用Quantile normalization进行连续型表型标准化的比较多。


致谢橙子牛奶糖(陈文燕),请用参考模版:We thank the blogger (orange_milk_sugar, Wenyan Chen) for XXX

感谢小可爱们多年来的陪伴, 我与你们一起成长~

标签:GWAS,样本,标准化,表型,phenotype,scores,正态分布,normalization
From: https://www.cnblogs.com/chenwenyan/p/17494968.html

相关文章

  • 2.6 类神经网路训练不起来怎么办 (五):批次标准化 (Batch Normalization)简介
    1.提出背景  在前文,我们提过\(error\surface\)在不同方向的斜率不一样,因此采用固定的学习率很难将模型\(train\)起来,上节提出了自适应学习率,这里还有一个方法就是直接将e\(rror\surface\)铲平.  或许首先想要提出的是为什么会产生不同方向上斜率相差很大的现象.观察......
  • 正则化(regularization)和归一化(normalization)
    正则化:批量归一化和dropout批量归一化和dropout作为正则化器来克服深度学习模型中的过度拟合问题。 来源您遇到过导致过拟合的大型数据集吗?过度拟合的原因之一是网络中的权重很大。具有较大网络权重的网络可能是网络不稳定的标志,其中输入的微小变化可能导致输......
  • 标准化(Standardization)、归一化(Normalization)
    归一化:1)把数据变成(0,1)或者(1,1)之间的小数。主要是为了数据处理方便提出来的,把数据映射到0~1范围之内处理,更加便捷快速。2)把有量纲表达式变成无量纲表达式,便于不同单位或量级的指标能够进行比较和加权。归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为......
  • post-GWAS: transcriptome-wide association studies (TWAS) 结果解读
    Thetoppanelshowsallofthegenesinthelocus.ThemarginallyTWASassociatedgenesarehighlightedinblue,andthosethatarejointlysignificant(inthiscase,FAM109B)highlightedingreen.Thestatisticsforthejointlysignificantgenesarerepo......
  • 【研究生学习】Batch Normalization和Layer Normalization
    本篇博客记录一下在深度学习中常用的BatchNormalization和LayerNormalization方法的基本原理,参考的资料的链接如下:独立同分布的数据可以简化常规机器学习模型的训练,提升机器学习模型的预测能力,因此把数据喂给机器学习模型之前,白化是一个重要的数据预处理步骤,......
  • date or other data normalization general solution in pandas
    importpandasaspdimportnumpyasnpfromsklearn.preprocessingimportMinMaxScalerimporttime #ofcourseyoucanusebasicpandasapidoingthisjob,butI'dprefergeneralsolutionherebydefconvert_to_timestamp(x):  """C......
  • R语言实现GWAS结果显著SNP位点归类提取与变异类型转化
    GWAS结果显著SNP位点归类提取与变异类型转化根据GWAS得到的Rresult文件信息,能够找出每个snp位点对应的显著性情况和基因变异信息,接下来,需要根据表格中的信息进行归纳总结,对不同显著性层次进行区分,找出可能性最大的点,过程比较繁琐。这里笔者分享一个算法,使统计SNP和变异类型变的......
  • 批量归一化 BatchNormalization
    一、BatchNormalization   如果设定了合适的权重初始值,则各层的激活值分布会有适当的广度,从而可以顺利地进行学习。为了使各层拥有适当的广度(激活值分布不能太广,易饱和),BatchNormalization试图在学习过程中“强制性”地调整激活值的分布会怎样呢?缓解内部协变量偏移。......
  • CS231N assignment 2 _ normalization 学习笔记 & 解析
    预警:本次内容不算多,但数学推导较复杂Normalization归一化的意义之前内部的权重没有做过标准化.实际上如果能标准化,可以提升训练效果,甚至可以提升精度(虽然不大).设立专门的batch/layernormalization层的意义在于:梯度更加规范对于学习率(可以更高),初始化权重等......
  • Layer Normalization
    郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Arxiv2016 ......