• 2024-04-18Causal Inference理论学习篇-Tree Based-Causal Forest
    广义随机森林了解causalforest之前,需要先了解其forest实现的载体:GENERALIZEDRANDOMFORESTS[6](GRF)其是随机森林的一种推广,经典的随机森林只能去估计labelY,不能用于估计复杂的目标,比如causaleffect,CausalTree、CauaslForest的同一个作者对其进行了改良。先定义一下矩估计
  • 2024-04-14Causal Inference理论学习篇-Tree Based-Causal Tree
    Tree-BasedAlgorithmsTree-based这类方法,和之前meta-learning类的方法最明显的区别是:这类方法把causaleffect的计算显示的加入了到了树模型节点分裂的标准中从response时代过渡到了effect时代。大量的这类算法基本围绕着树节点分裂方式做文章,普遍采用的是兼容性比较高
  • 2024-04-11Bridging Causal Discovery and Large Language Models
    本文是LLM系列文章,针对《BridgingCausalDiscoveryandLargeLanguageModels:AComprehensiveSurveyofIntegrativeApproachesandFutureDirections》的翻译。连接因果发现和大型语言模型:集成方法和未来方向的综合综述摘要1引言2背景3问题定义4当前的
  • 2024-04-09论文阅读-Causality Inspired Representation Learning for Domain Generalization
    标题:CausalityInspiredRepresentationLearningforDomainGeneralization会议:CVPR统计学上的相关(stastisticaldependence)不一定表示因果关系。CIRL旨在挖掘内在的因果机制(intrinsiccausalmechanism)。名词解释:DG(DomainGeneralization)域泛化SCM(StructuralCau
  • 2023-11-29LLM面面观之Prefix LM vs Causal LM
    1.背景关于PrefixLM和CausalLM的区别,本qiang在网上逛了一翻,发现多数客官只给出了结论,但对于懵懵的本qiang,结果仍是懵懵...因此,消遣了多半天,从原理及出处,交出了PrefixLM和CausalLM两者区别的更为清楚的说明。2.PrefixLMPrefixLM,即前缀语言模型,该结构是Google的T5模型论
  • 2023-09-19腾讯Fast-Causal-Inference已经在GitHub中公布,采用SQL交互
          腾讯近日宣布旗下的开源分布式数据科学组件项目Fast-Causal-Inference已经在GitHub中公布。根据公开资料显示,这是由腾讯微信研发,采用SQL交互的,基于分布式向量化的统计分析、因果推断计算库,宣称“解决已有统计模型库(R/Python)在大数据下的性能瓶颈,提供百亿
  • 2023-08-14搜索推荐论文速读2
    1.AModel-AgnosticCausalLearningFrameworkforRecommendationusingSearchData.WWW2022从因果分析的角度看,用于表示特征的embedding向量与用户的点击反馈有着复杂的关系。作者认为,这种复杂的关系可以分为两部分,描述用户偏好某个item原因的causalpart,以及反映用户与it