新闻中心
-
11-20「无需配对数据」就能学习!浙大等提出连接多模态对比表征C-MCR多模态对比表示(MCR)旨在将来自不同模态的输入编码到一个语义对齐的共享空间中随着视觉-语言领域中CLIP模型的巨大成功,越来越多的模态对比表征开始出现,并在许...
-
11-18GPT-4与LLM:微软团队探索科学发现的影响,涵盖5大科学领域的230页长文重写内容时,需要将原文用中文进行重写,不需要出现原始的英文句子前不久,微软DeepSpeed团队启动了一个名为DeepSpeed4Science的新计划,旨在通...
-
11-18首个支持4-bit浮点量化的LLM来了,解决LLaMA、BERT等的部署难题大语言模型(LLM)压缩一直备受关注,后训练量化(Post-trainingQuantization)是其中一种常用算法,但是现有PTQ方法大多数都是integ...
-
11-18GPT、Llama等大模型存在「逆转诅咒」,这个bug该如何缓解?中国人民大学的研究人员发现,Llama等因果语言模型遇到的“逆转诅咒”可以归咎于next-tokenprediction+causallanguagemodel...
-
11-1813B模型在与GPT-4的全面对决中占据优势?背后是否存在某些不寻常的情况?一个参数量为13B的模型竟然能击败顶级的GPT-4?就像下图所示,为了确保结果的有效性,这项测试还遵循了OpenAI的数据去噪方法,并且没有发现任何数据污染的证...
-
11-18实时文生图速度提升5-10倍,清华LCM/LCM-LoRA爆火,浏览超百万、下载超20万生成式模型进入「实时」时代?使用文生图和图生图已经不再是一件新鲜事了。然而,在使用这些工具的过程中,我们发现它们常常运行缓慢,导致我们需要等待一段时间才能获取生...

