首页 > 其他分享 >Hugging News #0519: 我们把 HuggingChat 开源了

Hugging News #0519: 我们把 HuggingChat 开源了

时间:2023-05-20 12:55:54浏览次数:63  
标签:co 0519 huggingface Hugging 开源 https News

每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」,本期 Hugging News 有哪些有趣的消息,快来看看吧!

重磅

我们把 HuggingChat 开源了

Chat UI 是我们 HuggingChat 应用背后的代码库,现已在 GitHub 上开源。

来这里: https://github.com/huggingface/chat-ui/

JAX/Diffusers 获奖作品

上个月初,我们联合很多合作伙伴发布了 JAX/Diffusers 社区冲刺

标签:co,0519,huggingface,Hugging,开源,https,News
From: https://www.cnblogs.com/huggingface/p/17417054.html

相关文章

  • newssh
    packageutilimport("bytes""errors""fmt""github.com/sirupsen/logrus""golang.org/x/crypto/ssh""strings""time")funcpublicKeyAuthFunc(pemBytes,keyPassword[]byte)ss......
  • Hugging News #0512:
    每一周,我们的同事都会向社区的成员们发布一些关于HuggingFace相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「HuggingNews」,本期HuggingNews有哪些有趣的消息,快来看看吧!开源更新Transformers现已支持Meta的S......
  • Hugging Face推出Transformers Agents
    来源:GitHubDailyHuggingFace,作为AI开源圈最为知名的「网红」创业公司,成立仅几年,便在GitHub开源了诸多实用开源项目,受到了不少开发者的赞赏。其中影响力最大的,也被很多人称为初代GPT的Transformers,截至今天,GitHubStar累积将近10万。这几年,在HuggingFace平台上面......
  • hugging face之Tokenizers
    Tokenizers是HuggingFace开发的一个高效的文本分词库,用于将自然语言文本分割成单个的标记(tokens),以便用于自然语言处理任务中,如文本分类、命名实体识别、机器翻译等。Tokenizers支持多种语言,并提供了多种分词器的实现,包括Byte-PairEncoding(BPE)、WordPiece和Unigram。用户可以......
  • Hugging Face之PEFT
    HuggingFace'sPEFT是一种针对Transformer模型的加速器,其全称为"PositionalEncodingsforFine-tuning"。PEFT的主要目的是通过改变位置编码的方式来提高Transformer模型的训练和推理速度。PEFT是在HuggingFace团队的论文"PositionalEncodingsforEfficientTransformers"中......
  • Hugging News #0506: StarCoder, DeepFloyd/IF 好多新的重量级模型
    每一周,我们的同事都会向社区的成员们发布一些关于HuggingFace相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「HuggingNews」,本期HuggingNews有哪些有趣的消息,快来看看吧!StarCoder:最新的代码生成LLMBlog:ht......
  • Hugging News #0428: HuggingChat 来啦
    每一周,我们的同事都会向社区的成员们发布一些关于HuggingFace相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「HuggingNews」,本期HuggingNews有哪些有趣的消息,快来看看吧!HuggingChat来啦!我们认为需要有一个Ch......
  • [CEOI2021] Newspapers
    模拟赛没有判\(n=1\),喜提\(0\)分。感谢每个subtask都放\(n=1\)的善良出题人。看到题感觉A的操作好像比较弱小,唯一的用处似乎只能用来排除B在哪些位置,那这样就有一个暴力了,直接记录当前还有哪些点上可能有B,然后直接跑bfs,就可以通过第一档分了。看到第二档分似乎比较......
  • Hugging Face公司介绍
    HuggingFace是一家非常活跃的人工智能创业公司。它拥有一个非常强大并且活跃的人工智能社区。有超过5000多家机构都在HuggingFace的社区发布内容,包括GoogleAI、FacebookAI、微软等。自从2016年成立以来,这家企业经历了5轮融资,总共募集了6000万美金。 那么,这是一家什么样......
  • 大规模 Transformer 模型 8 比特矩阵乘简介 - 基于 Hugging Face Transformers、Accel
    引言语言模型一直在变大。截至撰写本文时,PaLM有5400亿参数,OPT、GPT-3和BLOOM有大约1760亿参数,而且我们仍在继续朝着更大的模型发展。下图总结了最近的一些语言模型的尺寸。由于这些模型很大,因此它们很难在一般的设备上运行。举个例子,仅推理BLOOM-176B模型,你就需要8......