首页 > 其他分享 >个人的一些观点和理解:人工智能领域的因果推理/关系

个人的一些观点和理解:人工智能领域的因果推理/关系

时间:2024-05-01 14:55:04浏览次数:18  
标签:个人 人工智能 AI 理解 推理 因果

AI领域的人一般都认为现在的AI一个最大的缺点就是不具备因果推理,但是如何给现在的AI赋能因果推理能力却一直没有很好的解决,可以说这个因果推理是一个难以解决的难题。


个人对因果推理理解的比较少,这里只是记录一下个人的一些浅薄理解。


一般认为因果推理的形式基本为:x -> y

也就是说从x事件的发生得到y发生的结论。


那么 x -> y 这个关系又是如何得到的呢,AI角度来看就应该是数据训练获得,那么有没有其他的方式呢?

我个人觉得可能还有两个可能途径:

  1. 根据经验、事件共同发生的频数,推断出 x -> y ;

  2. 人为主观的假设 X -> y ;



标签:个人,人工智能,AI,理解,推理,因果
From: https://www.cnblogs.com/devilmaycry812839668/p/18169342

相关文章

  • CogVLM/CogAgent环境搭建&推理测试
    ​引子对于多模态大语言模型,一直没有怎么接触。刚巧一朋友有问到这方面的问题,也就顺手调研下。智谱AI的东西一直以来,还是很不错的。ChatGLM的忠实fans,看到白嫖网站github上有他们开源的多模态CogVLM/CogAgent,那就顺手看看了。OK,让我们开始吧。一、模型介绍CogVLM 是一个强大......
  • 三项国际人工智能顶会大奖!拿下!
     近日,国际人工智能顶会CVPR 2024举办的第6届自然场景情感行为分析挑战赛(6thWorkshopandCompetitiononAffectiveBehaviorAnalysisin-the-wild,简称ABAW)公布比赛结果,天翼云AI团队(CtyunAI)在情感识别任务中表现出色,斩获双赛道亚军、单个赛道季军,并受邀在CVPRABAW研讨会上作......
  • 做LLM推理时,常见的显卡如何选择?
    在选择显卡进行大型语言模型推理时,主要要看下面几个指标:VRAM(视频随机存取存储器):VRAM的容量直接影响您能够加载的模型的大小。大型语言模型需要大量的内存来存储权重和进行计算。至少12GBVRAM是推荐的起点,更大的模型可能需要24GB或更多。CUDA核心数CUDA核心数越多,表示......
  • paddlepaddle自定义网络模型及onnx模型转换与推理
    前面介绍过了使用Paddleseg套件训练后,使用export.py文件导出模型为推理部署模型。具体可以参考之前的:https://www.cnblogs.com/wancy/p/18028138本文介绍使用paddle自定义简单二分类CNN模型到训练数据集再到转换onnx模型推理。1. 数据集划分我这里将数据划分为tr......
  • 做LLM推理时,常见的显卡如何选择?
    在选择显卡进行大型语言模型推理时,主要要看下面几个指标:VRAM(视频随机存取存储器):VRAM的容量直接影响您能够加载的模型的大小。大型语言模型需要大量的内存来存储权重和进行计算。至少12GBVRAM是推荐的起点,更大的模型可能需要24GB或更多。CUDA核心数CUDA核心数越多,表示......
  • 控制自行车前进/后退/平衡等动作,有必要使用在控制方面使用人工智能算法吗,还是传统的PI
    直接说答案,用不到人工智能算法做控制,现在人工智能算法主要的应用领域为感知学习,比较典型的就是图像识别和自然语言对话系统,而在控制算法上人工智能的解决方案依然不是很成熟,目前世界上唯一一个宣布可以落地的是特斯拉的老马搞出的那个FSD的自动驾驶,除此之外就没有第二个使用智能控......
  • 如何准确的估计llm推理和微调的内存消耗
    Command-R+,Mixtral-8x22b和Llama370b都在最近的几周内发布了,这些模型是巨大的。它们都有超过700亿个参数:Command-R+:104B参数Mixtral-8x22b:具有141B参数的混合专家(MoE)模型Llama370b:70.6B参数你能在电脑上微调和运行这些模型吗?在本文中,我将介绍如何计算这些模型用......
  • 测试数据不再难,人工智能批量生成给你用!
    简介测试数据是指一组专注于为测试服务的数据,既可以作为功能的输入去验证输出,也可以去触发各类异常场景。测试数据的设计尤为重要,等价类、边界值、正交法等测试用例设计方法都是为了更全面的设计对应的测试数据集。实践演练在批量生成测试数据中,我们需要明确数据的类型、格式......
  • 大语言模型(LLM)的逻辑推理能力的例子 —— 以ChatGPT3.5为例
    例子:......
  • vllm 通过不同的chat_template推理部署常见qwen、chatglm、llama3等开源大模型
    vllm版本4.0.0镜像vllmgithub官方镜像gpuv10032ga80080gopenaiapi方式出现的问题通过chat-template聊天模板解决1推理部署qwen系列模型测试我是谁问题:回答内容含有分词符,回答有杂论冗余内容模型文件没有默认聊天模板vllm官方也没有聊天模板找不到不过......