ModernBERT模型发布,跃居Hugging Face下载榜第二,超越2018年经典原版 - IT之家

2024-12-30 12:33
科技

燃点网12月29日的报道,Hugging Face、英伟达和约翰霍普金斯大学的研究人员合作,给BERT这个热门编码器模型带来了新版本ModernBERT。这个升级版不仅保持了高效率,还新增了处理超长文本的能力,能处理多达8192个Token的上下文。ModernBERT一经发布,就在Hugging Face的下载榜上迅速攀升至第二位,超越了2018年的经典原版BERT。

开发团队表示,尽管 BERT 模型自 2018 年发布以来仍被业界广泛使用,并且是 Hugging Face 上下载量第二大的模型(仅次于 RoBERTa),每月下载量超 6800 万次,但这款模型如今已有些落后。

在 BERT 模型首次发布?6 年后的今天,Hugging Face 和其他团队借鉴了近年来业界 LLM 的进展,对 BERT 模型架构和训练过程进行改进,最终公布了 ModernBERT 模型以接替原版 BERT 模型。

据悉,相关开发团队使用了 2 万亿个 Token 来训练 ModernBERT,使得该模型在多种分类测试和向量检索测试中都达到了目前业界领先水平,目前开发团队共计公布了两个版本的模型,分别是 1.39 亿参数和 3.95 亿参数版本,燃点网附项目地址如下(点此访问)。

个人收藏 收藏

最新资讯