新闻中心
-
02-06LLM自主发现发表在Nature上的科学假设?ICLR 2025 论文MOOSE-Chem深度解析人工智能的下一个前沿:引领科学发现编辑|ScienceAI人工智能(AI)在自然语言处理和计算机视觉领域的成功有目共睹,但它能否推动科学理论的突破性发现?ICL...
-
02-01万字长文解读Scaling Law的一切,洞见LLM的未来深度解析:大型语言模型的缩放定律是否已触及瓶颈?近年来,人工智能领域,特别是大型语言模型(LLM)的进步,很大程度上依赖于缩放定律。简单来说,就是通过增加训练数...
-
01-27执行推理时能对齐语言模型吗?谷歌InfAlign带来一种对齐新思路GoogleDeepMind和GoogleResearch联合发表的论文提出了一种名为InfAlign(推理感知型对齐)的新框架,旨在优化生成式语言模型在特定推...
-
01-16大模型量化训练极限在哪?腾讯混元提出低比特浮点数训练Scaling Laws腾讯混元团队揭示大模型浮点量化训练规律,找到最佳性价比配置大模型低精度训练和推理是降低成本的关键方向,而浮点量化因其损耗小而备受关注。然而,现有整数量化经验能否...
-
01-09达摩院蝉联国产求解器权威赛事冠军1月9日消息,在工业和信息化部产业发展促进中心等单位举办的第二届能源电子产业创新大赛上,阿里巴巴达摩院自主研发的“敏迭”求解器再次夺冠,蝉联国产求解器技术专题赛...
-
12-24推动智能决策,AutoML技术在腾讯广告推荐场景的探索与应用腾讯广告推荐系统面临数据稀疏和冷启动等挑战,为此,腾讯机器学习平台部深入研究AutoML技术,并发表多篇创新性学术论文。一、AutoML技术在广告推荐中的意义A...

