新闻中心
-
01-31大模型也能切片,微软SliceGPT让LLAMA-2计算效率大增大型语言模型(LLM)通常拥有数十亿参数,经过数万亿token的数据训练。然而,这样的模型训练和部署成本都非常昂贵。为了降低计算需求,人们常常采用各种模型压缩技...
-
01-30Meta官方的Prompt工程指南:Llama 2这样用更高效随着大型语言模型(LLM)技术日渐成熟,提示工程(PromptEngineering)变得越来越重要。一些研究机构发布了LLM提示工程指南,包括微软、OpenA...
-
01-30无需人工标注!LLM加持文本嵌入学习:轻松支持100种语言,适配数十万下游任务文本嵌入(wordembedding)是自然语言处理(NLP)领域的基础技术,它能够将文本映射到语义空间,并转化为稠密的矢量表示。这种方法已经被广泛应用于各种N...
-
01-29揭开LLM巫师的魔杖,UIUC华人团队揭示代码数据的三大优势大模型时代的语言模型(LLM)尺寸和训练数据都增加了,包括自然语言和代码。代码是人类和计算机之间的媒介,将高级目标转换为可执行的中间步骤。它具有语法标准、逻辑一...
-
01-26回顾NeurIPS 2025: 清华ToT推动大型模型成为焦点近日,作为美国前十的科技博客,LatentSpace对于刚刚过去的NeurIPS2023大会进行了精选回顾总结。在NeurIPS会议中,共有3586篇论文被接受...
-
01-26贾扬清公司高效率带头的大型推理成本排行榜出炉「大模型的API是个亏本买卖吗?」随着大语言模型技术的实用化,许多科技公司推出了大模型API,供开发者使用。然而,我们不禁开始怀疑基于大模型的业务能否持续下去,...

