新闻中心
-
10-23你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测在算力为王的时代,你的GPU可以顺畅的运行大模型(LLM)吗?对于这一问题,很多人都难以给出确切的回答,不知该如何计算GPU内存。因为查看GPU可以处理哪些LL...
-
10-21LLaMA2上下文长度暴涨至100万tokens,只需调整1个超参数只需微调一下,大模型支持上下文大小就能从1.6万tokens延长至100万?!还是在只有70亿参数的LLaMA2上。要知道,即使是当前最火的Claude2和GP...
-
10-21参数少近一半,性能逼近谷歌Minerva,又一个数学大模型开源了如今,在各种文本混合数据上训练出来的语言模型会显示出非常通用的语言理解和生成能力,可以作为基础模型适应各种应用。开放式对话或指令跟踪等应用要求在整个自然文本分布...
-
10-21斯坦福大学发布AI基础模型透明度指标,Llama 2居首但“不及格”IT之家10月20日消息,斯坦福大学日前发布了AI基础模型“透明度指标”,其中显示指标最高的是Meta的Lama2,但相关“透明度”也只有54%,因此研究人员认...
-
10-19超火迷你GPT-4视觉能力暴涨,GitHub两万星,华人团队出品GPT-4V来做目标检测?网友实测:还没有准备好。虽然检测到的类别没问题,但大多数边界框都错放了。没关系,有人会出手!那个抢跑GPT-4看图能力几个月的迷你GP...
-
10-17MiniGPT-4升级到MiniGPT-v2了,不用GPT-4照样完成多模态任务几个月前,来自KAUST(沙特阿卜杜拉国王科技大学)的几位研究者提出了一个名为MiniGPT-4的项目,它能提供类似GPT-4的图像理解与对话能力。例如Mini...

