首页 > 其他分享 >农业大模型越来越像个笑话

农业大模型越来越像个笑话

时间:2024-05-13 22:53:29浏览次数:22  
标签:AI 笑话 模型 农业 GPT 试用 LLM 越来越

近期,中国发布了首个种业大语言模型“丰登”(SeedLLM),一搜关键词,满屏都是相关报道。

小编向参与该模型的三家单位都申请了测试试用,但都没有收到任何回复。这完全在我的意料之中,因为之前每出来一个农业大模型的重磅消息,我第一时间都是去申请试用,无一例外都是石沉大海,哪怕一个标点符号也没有收到。

比如,年初中国农大发布的神农大模型1.0。模型由海量高质量农业知识数据训练而成,数据涵盖农学、园艺学、栽培学、生物信息学、动物科学、动物医学、设施农业等学科,包含超过1000万条农业知识图谱数据及超过5000万条现代农业生产数据和2万本农业类图书。模型设计了并行加速推理算法,极大地提高了大语言模型的推理吞吐性能。没资格试用。

比如,另一个号称“国内首个农业多模态大模型ChatAgri V2--能看,能听,能说,能读,能写”。熟悉300种花卉绿植养护栽培,143种农作物的栽培管理,病虫害(识别近5000余种植物病虫害)防治,土壤养分施用。没资格试用。

比如,去年由安徽省农业农村厅联合科大讯飞发布的“安徽耕云农业大模型”。宣称对接涉农信息3.6亿条数据,提取学习涉农文档资料近200万条。入口都找不到,更加没资格试用。

再比如,农牧行业大语言模型“农信猪小慧和农业植保领域“图知农业病虫害大模型”,同样找不到入口。

诸如此类,不一一列举。

我想,如果这些大模型连对外公开或付费测试的勇气都没有,就自我标榜“首个”、“第一个”,比肩GPT-4、Claude,有什么意思呢?除了造势宣传一波,有个屁用。

我们相信这次AI变革将是颠覆性的,会影响到每个行业,即使是对新技术非常钝感的农业和种业也不例外。因此,我们也一直在跟踪这方面的动态。比如之前的微信推文就有一部分:

往期推文 #LLM

往期推文 #GPT

从国外openAI的GPT-4到国内最近比较火的月之暗面Kimi,从闭源到开源,能公开访问的我们都尝试过了。但是LLM这火爆的一年多,除了一些娱乐性的把玩和不痛不痒的功能应用外,我们也没见到它带来太多实质性的变化。现在普遍的观点认为卷大模型已然没意义,AI变革将在各个垂直领域遍地开花,但是多少所谓的牛逼大模型也只是套个Llamma的壳而已。

对于真正想改变世界的人来说,AI是一种信仰,就像当年马斯克造火箭,”虽千万人吾往矣“般的信仰。OpenAI成立之初的理想就是奔向通用人工智能(AGI),他们信仰AI能够改变世界,造福全人类。很难想象至今这些先驱已经坚持了八九年的时间,而ChatGPT也只是实现这一理想的中间产物而已,当然这种效果和外界反应连他们自己都感到意外。

AGI还很遥远,一批勇敢的人在沿途创造了一个小插曲,让人们看到了希望,也看到了利益,于是趋之若鹜。让更多人参与到这场变革当中来,这是好事,但盲目跟风,宣传造势,只会制造泡沫,最终沦为一个笑话。如果我们能够聚焦资源于一体,集中力量办大事,效果远比这种四分五落、各自为战好得多。

当然不止农业,其他领域同样如此。LLM在垂直领域真正出现爆款之前,我们就图个乐呵吧。

最后声明下,小编发发牢骚罢了,胡乱一通,不必较真。

注:图片来自网络,侵删。

标签:AI,笑话,模型,农业,GPT,试用,LLM,越来越
From: https://www.cnblogs.com/miyuanbiotech/p/18190240

相关文章

  • 基于高斯混合模型的视频背景提取和人员跟踪算法matlab仿真
    1.算法运行效果图预览    2.算法运行软件版本MATLAB2013B 3.算法理论概述      基于高斯混合模型(GaussianMixtureModel,GMM)的视频背景提取和人员跟踪算法是一种广泛应用的计算机视觉方法,主要用于分离视频序列中的静态背景和动态前景(比如人物运动)。 ......
  • Redis网络模型
    主从复制原理建立连接从节点在配置了replicaof配置了主节点的ip和port从库执行replicaof并发送psync命令同步数据到从库主库bgsave生成RDB文件,并发送给从库,同时为每一个slave开辟一块replicationbuffer缓冲区记录从生成rdb文件开始收到的所有写命令。从库清空......
  • SciTech-BigDataAIML-TensorFlow-Model: 模型建立与训练
    TensorFlow模型建立与训练TensorFlow模型建立与训练本章介绍如何使用TensorFlow快速搭建动态模型。模型的构建:tf.keras.Model和tf.keras.layers模型的损失函数:tf.keras.losses模型的优化器:tf.keras.optimizer模型的评估:tf.keras.metrics前置知识Python-{zh-......
  • 多模态大模型 LLaVA 微调教程-大语言模型8
    写完之后发现他好像不是很需要这个东西,所以就先发在自己的博客好了。不投稿首页或者候选区应该本来也就不会有多少流量,所以应该不会干嘛的,大不了后面被说不让放网上以后就删掉这篇,嘻嘻。LLaVA是最早出现的VisionLanguageModel。本教程将教你微调llava-v1.5-13b。与本博客......
  • 一个低级问题导致vLLM加载大模型时ray卡死
    这两天一直被一个问题困扰,用vLLM加载千问时不能开并行(tensor_parallel_size>1),一开就会卡在ray阶段,最初是提示StartedalocalRayinstance,后来手工启动ray集群,就提示connectedtoRaycluster。无论怎样调都无法跑下去,根本不会加载模型,换了各种版本的vllm、transformer、ray......
  • LM Studio 本地离线部署大模型
    安装LMStudio官网:https://lmstudio.ai/下载模型:Meta-Llaa-3-8B-Instruet.Q4_KM.gguf下载地址:https://cdn-lfs-us-1.huggingface.co/repos/79/f2/79f21025e377180e4ec0e3968bca4612bb9c99fa84e70cb7815186c42a858124/647a2b64cbcdbe670432d0502ebb2592b36dd364d51a9e......
  • 玩转AI,笔记本电脑安装属于自己的Llama 3 8B大模型和对话客户端
    2024年4月18日,Meta开源了Llama3大模型,把AI的门槛降低到了最低,这是人工智能领域的一个重要飞跃。我们个人也可以部署大模型了,这简直就是给个人开发者发了个大红包!Llama3模型有不同的参数版本,本文主要分享我在个人笔记本电脑是部署8B参数过程和编写客户端,让我们大家......
  • You Only Cache Once:YOCO 基于Decoder-Decoder 的一个新的大语言模型架构
    这是微软再5月刚刚发布的一篇论文提出了一种解码器-解码器架构YOCO,因为只缓存一次KV对,所以可以大量的节省内存。以前的模型都是通过缓存先前计算的键/值向量,可以在当前生成步骤中重用它们。键值(KV)缓存避免了对每个词元再次编码的过程,这样可以大大提高了推理速度。但是随着词元......
  • 日本联合研究团队发布 Fugaku-LLM——证明大型纯 CPU 超算也可用于大模型训练
    相关:https://mbd.baidu.com/newspage/data/landingsuper?context={"nid"%3A"news_10139665591063236146"}研究团队表示其充分挖掘了富岳超算的性能,将矩阵乘法的计算速度提高了6倍,通信速度也提升了3倍,证明大型纯CPU超算也可用于大模型训练。Fugaku-LLM模型参数规模......
  • 【视频】R语言逻辑回归(Logistic回归)模型分类预测病人冠心病风险|数据分享|附代码数据
    原文链接:http://tecdat.cn/?p=22410 最近我们被客户要求撰写关于逻辑回归的研究报告,包括一些图形和统计输出。本文介绍了逻辑回归并在R语言中用逻辑回归(Logistic回归)模型分类预测病人冠心病风险数据逻辑回归是机器学习借用的另一种统计分析方法。当我们的因变量是二分或二元时......