首页 > 其他分享 >Hugging Face公司介绍

Hugging Face公司介绍

时间:2023-04-26 11:14:37浏览次数:37  
标签:NLP 社区 AI HuggingFace 介绍 Face Hugging

Hugging Face是一家非常活跃的人工智能创业公司。它拥有一个非常强大并且活跃的人工智能社区。有超过5000多家机构都在Hugging Face的社区发布内容,包括Google AI、Facebook AI、微软等。自从2016年成立以来,这家企业经历了5轮融资,总共募集了6000万美金。

 

那么,这是一家什么样的企业?为什么2016年才创立的企业,能有如此大的号召力?本文将简要介绍这家企业相关的信息。

Hugging Face的创立历史

Hugging Face创立于2016年。最早是一家开发聊天机器人的企业。他们的目标是使用聊天机器人为无聊的年轻人解闷。当然,这样的创意虽然看起来很好,但显然并没有做得很大。HuggingFace的转变主要来源于它在NLP领域的贡献。在Bert发布不久之后,他们贡献了一个基于Pytorch的Bert预训练模型,即pytorch-pretrained-bert。相信这个库很多人都使用过,这个库非常好用,于是也顺着NLP模型的发展不断扩张。如今,HuggingFace整合了他们的贡献的NLP领域的预训练模型,发布了Transformers库。Transformers 提供了数以千计的预训练模型(包括我们熟知的Bert、GPT、GPT-2、XLM等),支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨让最先进的 NLP 技术人人易用。

 

如今的Transformers在GitHub上已经有5.38万个stars,被fork了1.27万次。足以证明它的火爆。除此之外,他们还提供了datasets库用以方便访问公开的NLP数据集等很多优秀的工具。HuggingFace也凭借他们贡献的这些内容,吸引了大批的开发者。因此,他们也顺理成章地建立了自己的社区,也吸引了大批的机构入驻。

 

HuggingFace的业务

如今,HuggingFace的官方网站已经是一个大型的人工智能社区。他们运营着很多产品。HuggingFace的社区模式与我们现有的社区不一样。他们相当于一个机构的品牌专区。每一个机构可以在上面发布自己的模型、数据集和Spaces(这是才出来的一个托管AI应用或者展示AI应用的东西)。

 

从图中我们可以看到,Facebook AI发布了136个模型,微软发布了86个模型等等。当然,除了这种比较新的可以让大家管理宣传自己AI能力的社区,HuggingFace也有discord社区、community社区和博客等。此外,由于他们的NLP实力很强,他们也在官网中提供了自己的基于NLP的服务和报价,包括直接的专家支持、推断API和AutoNLP等业务。可以帮助我们解决企业的NLP相关的问题。总结一下,他们提供的服务如下:

 

  • 机构品牌发布模型、数据集、AI应用展示的社区
  • 开源的模型、数据集、工具库
  • NLP相关的解决方案
  • NLP相关的课程
总结

Hugging Face在人工智能领域的影响力很大,运营着很大的一个社区。它的成长转变也是因为贡献了基于pytorch的bert而发生了很大的变化。目前,它们的社区非常活跃,也在持续地贡献优秀的产品。像他们提供的transformers、tokenizers、datasets、accelerate库都对NLP相关的实践产生了很大的促进。此外,各大公司在它的社区的贡献和支持,也让这家企业的社区更加活跃和健康。国内其实应该也需要这样的企业和氛围。不仅需要一些愿意做“贡献”的优秀企业,也需要各个巨头可以放下身段参与社区的建设,支持一些初创的小企业。而不是一味地互相斗争,计算一些鸡毛蒜皮的利益,搞得大家都没了尊重,只剩下啧啧啧了~~respect

2023-04-26 10:46:44

标签:NLP,社区,AI,HuggingFace,介绍,Face,Hugging
From: https://www.cnblogs.com/chentiao/p/17355025.html

相关文章

  • smartctl命令以及介绍
    SMART是一种磁盘自我分析检测技术。硬盘在运行的时候,都会将自身的若干参数记录下来。这些参数包括型号、容量、温度、密度、扇区、寻道时间、传输、误码率等。硬盘运行了几千小时后,很多内在的物理参数都会发生变化。某一参数超过报警阈值,则说明硬盘接近损坏。此时硬盘依然在工作......
  • 英语笔记:入门介绍
    短期快速掌握语法基础,不同时做几件事同时学语法和词汇,用造句的方法来学语法,再结合阅读巩固积累词汇,进而掌握造句和理解句子的能力,有了这个基础,再学发音,口语和听力,就容易多了。语法知识练习复习虽然能截取视频画面,但是最多一百张,字多了确实累,那还不如直接抄下来,在加上对自己......
  • Prometheus监控之SNMP Exporter介绍和数据展现
    由于技术能力有限,文章仅能进行简要分析和说明,如有不对的地方,请指正,谢谢......
  • 大规模 Transformer 模型 8 比特矩阵乘简介 - 基于 Hugging Face Transformers、Accel
    引言语言模型一直在变大。截至撰写本文时,PaLM有5400亿参数,OPT、GPT-3和BLOOM有大约1760亿参数,而且我们仍在继续朝着更大的模型发展。下图总结了最近的一些语言模型的尺寸。由于这些模型很大,因此它们很难在一般的设备上运行。举个例子,仅推理BLOOM-176B模型,你就需要8......
  • jvm Classload method介绍
    1,jvmClassload默认几个重要方法介绍findClass:FindsandloadstheclasswiththespecifiednamefromtheURLsearchpath.找到class文件并把字节码加载到内存中,如果自定义的加载器仅覆盖了findClass,而未覆盖loadClass(即加载规则一样,但加载路径不同......
  • Python中 os.popen、os.system和subprocess.popen方法介绍
    Python提供了多种与操作系统交互的方法,比如os模块中的popen和system方法,此外,Pythonsubprocess模块中的Popen类也提供了与操作系统交互的方法,使用起来更加灵活,本文将简单介绍这几种方法。目录os.popen方法os.system方法susbprocess.Popen方法替代os.popen()方法替代os.system......
  • 开源大模型(large language model, LLM)介绍
    作为如今LLM圈内绝对的领头羊,OpenAI并没有遵从其创立初衷,无论是ChatGPT早期所使用的的GPT3、GPT3.5还是此后推出的GPT4模型,OpenAI都因“暂无法保证其不被滥用”为由拒绝了对模型开源,开启了订阅付费模式。对于大型科技企业而言,不管是出于秀肌肉还是出于商业竞争目的,自研LLM都是一......
  • backpressure 背压介绍
    当数据流启动时,源就开始把一行行数据填到一个类似桶的缓存(buffer)中。源根本不知道下游是什么。一旦缓存满了,桶就随着流水线流到下游组件(component)上,同时引擎抓一个新的空缓存过来给源。源根本不知道这一切,它只是不断地填桶。有时源填了太多的桶,转换和端都来不及应付了;此时引擎会......
  • Three.js教程:Face3对象定义Geometry的三角形面
    推荐:将NSDT场景编辑器加入你的3D工具链其他系列工具:NSDT简石数字孪生Face3对象定义Geometry的三角形面几何体Geometry的三角面属性geometry.faces和缓冲类型几何体BufferGeometry顶点索引属性BufferGeometry.index类似都是顶点位置数据的索引值,用来组织网格模型三角形的绘制。......
  • 70、ansible常用工具及模块介绍
    ansible相关工具/usr/bin/ansible主程序,临时命令执行工具/usr/bin/ansible-doc查看配置文档,模块功能查看工具,相当于man/usr/bin/ansible-playbook定制自动化任务,编排剧本工具,相当于脚本/usr/bin/ansible-pull远程执行命令的工具/usr/bin/ansible-vault文件加密工具/usr......