新闻中心
-
02-20如果 LLM Agent 成为了科学家:耶鲁、NIH、Mila、上交等学者共同呼吁安全防范的重要性近年来,大型语言模型(LLMs)的发展取得了巨大进步,这让我们置身于一个革命性的时代。LLMs驱动的智能代理在各种任务中展现出了通用性和高效性。这些被称为“AI...
-
02-01准确率不足20%,GPT-4V/Gemini竟看不懂漫画!首个图像序列基准测试开源OpenAI的GPT-4V和谷歌的Gemini多模态大语言模型引起了业界和学界的广泛关注。这些模型在多个领域展示了对视频的深入理解能力,从不同角度呈现出了其潜力...
-
01-18RoSA: 一种高效微调大模型参数的新方法随着语言模型扩展到前所未有的规模,对下游任务进行全面微调变得十分昂贵。为了解决这个问题,研究人员开始关注并采用PEFT方法。PEFT方法的主要思想是将微调的范围...
-
01-16谷歌发布 BIG-Bench Mistake 数据集以帮助 AI 语言模型提升自我纠错能力谷歌研究院使用自家BIG-Bench基准测试建立了“BIG-BenchMistake”数据集,并对市场上流行的语言模型进行出错概率和纠错能力的评估研究。这一举措...
-
11-17微软推出 XOT 技术,加强语言模型的推理能力11月15日消息,微软近日推出了名为“EverythingofThought”(XOT)的方法,灵感来自谷歌DeepMind的AlphaZero,利用紧凑的神经...
-
10-07大规模语言模型高效参数微调--BitFit/Prefix/Prompt 微调系列2018年谷歌发布了BERT,一经面世便一举击败11个NLP任务的State-of-the-art(Sota)结果,成为了NLP界新的里程碑;BERT的结构如下...

