Hugging Face是一家创立于2016年的人工智能企业。其宗旨让最先进的NLP技术人人易用。最早是致力于开发聊天机器人,但没有做大。之后HuggingFace向NLP领域转变。在Bert发布后他们贡献了一个基于Pytorch的Bert预训练模型pytorch-pretrained-bert,顺着NLP模型的发展不断扩张。如今HuggingFace整合了他们贡献的NLP领域的预训练模型,发布了Transformers库。Transformers提供了数以千计的预训练模型(包括我们熟知的Bert、GPT、GPT-2、XLM等),支持100多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。一些需要了解的词语如下:
Pre-training of Deep Bidirectional Transformers for Language Understanding
语言理解深度双向变换器的预训练
GLUE:通用语言理解评估
GLUE :General Language Understanding Evaluation
MNLI:多体裁自然语言推理
MNLI :Multi-Genre Natural Language Inference
第1小队。1:斯坦福德问答数据集
SQuAD v1.1 :The Standford Question Answering Dataset
QQP : Quora问题对
QQP :Quora Question Pairs
问题自然语言推理
QNLI :Question Natural Language Inference
SST-2:斯坦福情绪树库
SST-2 :The Stanford Sentiment Treebank
可乐:语言可接受性的语料库
CoLA :The Corpus of Linguistic Acceptability
STS-B:语义-文本相似度基准
STS-B :The Semantic Textual Similarity Benchmark
MRPC:微软研究释义语料库
MRPC :Microsoft Research Paraphrase Corpus
RTE:识别文本蕴涵
RTE :Recognizing Textual Entailment
WNLI:Winograd NLI
WNLI :Winograd NLI
SWAG:世代敌对的情况
SWAG :The Situations With Adversarial Generations