contrastors

contrastors

contrastors是一个对比学习工具包,使研究人员和工程师能够高效地训练和评估对比模型。它建立在Flash Attention之上,支持多GPU训练,具有GradCache支持,可以在受限内存环境下进行大批量训练。它还支持Huggingface,可以轻松加载常见模型。同时支持遮蔽语言建模预训练和Matryoshka表示学习。

需求人群:

"用于研究和工程师高效地训练和评估对比学习模型"

使用场景示例:

使用contrastors在8块GPU上从零开始训练BERT模型

使用contrastors微调nomic-bert-embed-v1-unsupervised模型

使用contrastors的脚本生成自己的数据集进行对比学习

产品特色:

多GPU支持

GradCache支持大批量训练

支持遮蔽语言模型预训练

支持Huggingface加载常见模型

浏览量:80

打开站点

网站流量情况

最新流量情况

月访问量

4.85m

平均访问时长

00:06:25

每次访问页数

6.08

跳出率

35.86%

流量来源

直接访问

52.62%

自然搜索

32.72%

邮件

0.05%

外链引荐

12.34%

社交媒体

2.17%

展示广告

0

截止目前所有流量趋势图

地理流量分布情况

中国

12.55%

德国

3.84%

印度

9.38%

俄罗斯

4.61%

美国

18.64%

类似产品

© 2025     AIbase    备案号:闽ICP备08105208号-14

隐私政策

用户协议

意见反馈 网站地图