新闻中心
-
11-20实现高质量图像生成的新一步:谷歌UFOGen极速采样方法最近一年来,以StableDiffusion为代表的一系列文生图扩散模型彻底改变了视觉创作领域。数不清的用户通过扩散模型产生的图片提升生产力。但是,扩散模型的生...
-
11-20「无需配对数据」就能学习!浙大等提出连接多模态对比表征C-MCR多模态对比表示(MCR)旨在将来自不同模态的输入编码到一个语义对齐的共享空间中随着视觉-语言领域中CLIP模型的巨大成功,越来越多的模态对比表征开始出现,并在许...
-
11-18首个支持4-bit浮点量化的LLM来了,解决LLaMA、BERT等的部署难题大语言模型(LLM)压缩一直备受关注,后训练量化(Post-trainingQuantization)是其中一种常用算法,但是现有PTQ方法大多数都是integ...
-
11-18GPT、Llama等大模型存在「逆转诅咒」,这个bug该如何缓解?中国人民大学的研究人员发现,Llama等因果语言模型遇到的“逆转诅咒”可以归咎于next-tokenprediction+causallanguagemodel...
-
11-1813B模型在与GPT-4的全面对决中占据优势?背后是否存在某些不寻常的情况?一个参数量为13B的模型竟然能击败顶级的GPT-4?就像下图所示,为了确保结果的有效性,这项测试还遵循了OpenAI的数据去噪方法,并且没有发现任何数据污染的证...
-
11-18普林斯顿开源34B数学模型:参数减半,性能媲美谷歌Minerva,使用550亿Token进行专业数据训练数学,作为科学的基石,一直以来都是研究和创新的关键领域。最近,普林斯顿大学等七家机构联合发布了一个专门用于数学的大语言模型LLEMMA,性能媲美谷歌Minerv...

