新闻中心
-
10-30为何GPT-4P容易受到多模态提示注入图像攻击?OpenAI新的GPT-4V版本支持图像上传后,带来了一条全新的攻击途径,使大型语言模型(LLM)容易受到多模态注入图像攻击。攻击者可以在图像中嵌入命令、恶意脚...
-
10-30北大团队:诱导大模型“幻觉”只需一串乱码!大小羊驼全中招北大团队的最新研究结果表明:随机token都能诱发大模型出现幻觉!举例来说,如果给予大模型(Vicuna-7B)一段“乱码”,它会莫名其妙地错误理解历史常识即使...
-
10-30比Transformer更好,无Attention、MLPs的BERT、GPT反而更强了从BERT、GPT和Flan-T5等语言模型到SAM和StableDiffusion等图像模型,Transformer正以迅猛之势席卷全球,但人们不禁会问:Tr...
-
10-25LeCun又双叒唱衰自回归LLM:GPT-4的推理能力非常有限,有两篇论文为证「任何认为自动回归式LLM已经接近人类水平的AI,或者仅仅需要扩大规模就能达到人类水平的人,都必须读一读这个。AR-LLM的推理和规划能力非常有限,要解决这个问...
-
10-25苹果“套娃”式扩散模型,训练步数减少七成!苹果的一项最新研究,大幅提高了扩散模型在高分辨率图像上性能。利用这种方法,同样分辨率的图像,训练步数减少了超过七成。在10241024的分辨率下,图片画质直接拉...
-
10-24RLHF模型普遍存在「阿谀奉承」,从Claude到GPT-4无一幸免不管你是身处AI圈还是其他领域,或多或少的都用过大语言模型(LLM),当大家都在赞叹LLM带来的各种变革时,大模型的一些短板逐渐暴露出来。例如,前段时间,Goo...

