新闻中心
-
02-01人工智能范式从模型为中心转向数据为中心面向数据的人工智能可以有助于减少生成式AI系统中的幻觉和偏见,从而提高其输出质量。译自TheParadigmShiftfromModel-CentrictoDa...
-
02-01无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100倍在AI赛道中,小模型近来备受瞩目,相较于拥有上千亿参数的模型。例如,法国AI初创公司发布的...
-
01-30图像化语言:快手、北大多模态大模型与DALLE-3不相上下当前的大型语言模型如GPT、LLaMA等在自然语言处理领域取得了显著进展,能够理解和生成复杂的文本内容。然而,我们是否可以将这种强大的理解和生成能力扩展到多模态...
-
01-30MoE大模型制作指南:零基础手打法,大神级教程揭秘传说中GPT-4的“致胜法宝”——MoE(混合专家)架构,自己也能手搓了!HuggingFace上有一位机器学习大神,分享了如何从头开始建立一套完整的MoE系统...
-
01-29最新推出的适合中文LMM体质的基准CMMMU:包含超过30个细分学科和12K个专家级题目随着多模态大模型(LMM)的不断进步,对于评估LMM性能的需求也在增长。尤其在中文环境下,评估LMM的高级知识和推理能力变得更加重要。在这个背景下,为了评估基本...
-
01-29开源在线的年轻人首选多模态大模型:轻松运行1080Ti一款名为Vary-toy的“年轻人的第一个多模态大模型”来了!模型大小不到2B,消费级显卡可训练,GTX1080ti8G的老显卡轻松运行。想将一份文档图片转换成...

