新闻中心
-
09-23首个Mamba+Transformer混合架构多模态大模型来了,实现单卡千图推理本文作者来自于香港中文大学深圳和深圳大数据研究院。其中第一作者为香港中文大学深圳博士生王熙栋和研究助理宋定杰,主要研究方向分别为医疗AGI和多模态学习;博士生陈...
-
09-12Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB*训练完就直接上模型。我们都知道,Mistral团队向来「人狠话不多」。昨天下午,他们又又又丢出了一个不带任何注解的磁力链接。解析一下这个链接,可以看到大小共23...
-
09-11召唤100多位学者打分,斯坦福新研究:「AI科学家」创新确实强近日,一篇关于自动化AI研究的论文引爆了社交网络,原因是该论文得出了一个让很多人都倍感惊讶的结论:LLM生成的想法比专家级人类研究者给出的想法更加新颖!我们都知...
-
09-11Scaling Law瓶颈,Cursor编程为什么这么强?团队参与新研究掏出秘密武器近段时间,AI编程工具Cursor的风头可说是一时无两,其表现卓越、性能强大。近日,Cursor一位重要研究者参与的一篇相关论文发布了,其中提出了一种方法,可通...
-
09-09Anthropic安全负责人:在超级AI「毁灭」人类之前,我们可以做这些准备2023年,Anthropic发布了负责任扩展策略(ResponsibleScalingPolicy,RSP),这是一系列技术和组织协议,Anthropic将采...
-
09-06刚刚,开源大模型的新王诞生了:超越GPT-4o,模型还能自动纠错快速更迭的开源大模型领域,又出现了新王:Reflection70B。横扫MMLU、MATH、IFEval、GSM8K,在每项基准测试上都超过了GPT-4o,还击...

