前段时间去了长春一汽,聊了Reinforcement Learning方面的工作,既是面试,也是谈了谈意向,最后全部OK,本打算是签合同了,结果HR说要求有三年的社保缴纳证明工作经验,最后说可以减到24个月,不过说来也是有意思,我这人还真没社保,这就尴尬了,最后说这是上面的文件,国企就这要求,后来也只能作罢,但是这一趟也和一汽那边的人聊了聊,中间也是闲聊,对方的对接人员提了一个问题,那就是“国产AI模型和美国顶级AI模型的距离在哪?”,本文也是自己突然想起了这问题,也就有了下面内容。
这个AI模型的差距,其原因无非就是:算力?算法?数据?
我国的算力或许没有美国多,但是真要认真比,那也绝对没啥大差别,弄不好还能压一头,要对我国算力的库存有一定信心,也要对中国的社会的资金要有一定信心。
那么如果不是算力,那能是算法吗?
估计也不是,算法deep learning这东西有些玄幻,有些炼丹,但是不要忘记,几乎所有的AI论文、AI模型、相关的技术都是开源的,是免费的,是公开的,即使最后的chatgpt3.5还是4.0没公开论文但是有了之前的所有公开的技术和文档,这方面也绝对不是差距。
那就只有一个原因了,那就是数据。
我们要知道,虽然中国人很多,中国的汉语文字也很多,但是你要知道全世界说的最多的语言还是英语,全世界的主要的科技文档、社会学、医学文档都是用英文撰写的,几乎所有的自然语言的语料库也都是英文的,世界上的视频、文字等等电子化的资料也都是英文为主的,虽然中文我们有14亿人,但是你要知道,除了中国以外几乎大部分的这个地球上的人可都是在用英语的,这就是现实情况。而且最愁人的还有,那就是几乎所有的NLP的研究也都是以英文为主的,那你说在这个大背景之前我们搞的AI模型的这个中文语料库怎么和美国的那些人比,而且这里面我们还要考虑到语言特性,比如英文的表达更偏向形式表达,而中文的表达更偏向于联想表达,中文的表达信息量更大也更能处理和表达,而且在这之上再加上语料库的资源的不足和质量有限的问题,所以采用了这个NLP方面的AI模型表现的差距。
说这个“对话生成的系统”可能很多人不理解这个语料和语言本身的差距,那么我们还可以看看这个copilot,要知道世界上的绝大部分代码都是保存在GitHub上的,虽然我国有gitee,但是但凡是搞IT的估计也都是知道的,这个GitHub和Gitee根本就不是一个量级,在我看来这二者之间至少差了两个数量级,不论是资金、代码资料还是代码数,还是用户数,都是两个数量级的差距,甚至还不止,弄不好能有3到4个数量级,1万倍的差距。那么在这么大的差距之前,我们又怎么可能在这种数据资源上训练出和美国AI相匹敌的算法模型呢,所以在我看来,在我们的基础数据有着这么大的差距的情况下,我们的模型还能取得和美国AI模型性能相当的表现,这并不能说明我国的AI领域不行,而是说明我们的AI领域要远远强于美国。这就相当于什么,这就相当于当年打抗美援朝战争那样,我们用低端武器把美国的那些高端武器的军队挡住了,那不是平手,那就是战胜。
标签:AI,模型,算法,差距,算力,语料库 From: https://www.cnblogs.com/devilmaycry812839668/p/18005693