新闻中心
-
01-29揭开LLM巫师的魔杖,UIUC华人团队揭示代码数据的三大优势大模型时代的语言模型(LLM)尺寸和训练数据都增加了,包括自然语言和代码。代码是人类和计算机之间的媒介,将高级目标转换为可执行的中间步骤。它具有语法标准、逻辑一...
-
01-29Transformer模型在挑战视频生成中成功利用20亿个数据点学习物理世界建立会做视频的世界模型,也能通过Transformer来实现了!来自清华和极佳科技的研究人员联手,推出了全新的视频生成通用世界模型——WorldDreamer。...
-
01-26ICLR为什么没有接受Mamba论文?AI社区掀起了大讨论2023年,AI大模型领域的统治者Transformer的地位开始受到挑战。一种新的架构名为「Mamba」崭露头角,它是一种选择性状态空间模型,在语言建模方面与...
-
01-26贾扬清公司高效率带头的大型推理成本排行榜出炉「大模型的API是个亏本买卖吗?」随着大语言模型技术的实用化,许多科技公司推出了大模型API,供开发者使用。然而,我们不禁开始怀疑基于大模型的业务能否持续下去,...
-
01-25工作场所中的未知因素:CIO面对的生成式AI挑战确保组织与日益智能的软件工具形成富有成效的合作伙伴关系是生成式AI战略成功的关键,需要指导和引导双方的合作。这种合作伙伴关系将确保最终用户能够充分利用智能工具的...
-
01-24用LLM提升理解力,Pika北大斯坦福开源新框架,更深入理解复杂提示词的扩散模型Pika北大斯坦福联手,开源最新文本-图像生成/编辑框架!无需额外训练,即可让扩散模型拥有更强提示词理解能力。面对超长、超复杂提示词,准确性更高、细节把控更强,...

