新闻中心

GLM-4.1V-Thinking— 智谱AI开源的视觉语言模型系列

2025-07-03
浏览次数:
返回列表

GLM-4.1V-Thinking是什么

glm-4.1v-thinking是智谱ai推出的开源视觉语言模型,专为复杂认知任务设计,支持图像、视频、文档等多模态输入。模型在glm-4v架构基础上引入思维链推理机制,基于课程采样强化学习策略,系统性提升跨模态因果推理能力与稳定性。模型轻量版glm-4.1v-9b-thinking(glm-4.1v-9b-base基座模型和glm-4.1v-9b-thinking具备深度思考和推理能力)参数量控制在10b级别,在28项权威评测中,有23项达成10b级模型最佳成绩,其中18项持平或超越参数量高达72b的qwen-2.5-vl,展现出小体积模型的极限性能潜力。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

GLM-4.1V-Thinking— 智谱AI开源的视觉语言模型系列

GLM-4.1V-Thinking的主要功能

  • 图像理解:精准识别和分析图像内容,支持复杂的视觉任务,如目标检测、图像分类和视觉问答。
  • 视频处理:具备时序分析和事件逻辑建模能力,支持处理视频输入,进行视频理解、视频描述和视频问答。
  • 文档解析:支持处理文档中的图像和文本内容,支持长文档理解、图表理解和文档问答。
  • 数学与科学推理:支持复杂的数学题解、多步演绎和公式理解,能处理STEM领域的推理任务。
  • 逻辑推理:支持进行逻辑推理和因果分析,支持复杂的推理任务,如多步推理和逻辑判断。
  • 跨模态推理:合视觉和语言信息进行推理,支持图文理解、视觉问答和视觉锚定等任务。

GLM-4.1V-Thinking的技术原理

  • 架构设计:基于AIMv2Huge作为视觉编码器,处理和编码图像和视频输入。MLP适配器将视觉特征对齐到语言模型的token空间。语言解码器用GLM作为语言模型,处理多模态token并生成输出。
  • 训练方法:基于大规模的图像-文本对、学术文献和知识密集型数据进行预训练,构建强大的视觉语言基础模型。用长链推理(CoT)数据进行监督微调,提升模型的推理能力和人类对齐。基于课程采样强化学习(RLCS),动态选择最具信息量的样本进行训练,提升模型在多种任务上的性能。
  • 技术创新:引入思维链推理机制,让模型逐步思考生成详细的推理过程。基于课程采样策略,动态调整训练样本的难度,确保模型在不同阶段都能获得最有效的训练。基于2D-RoPE和3D-RoPE技术,支持任意分辨率和宽高比的图像输入,增强模型的时空理解能力。

GLM-4.1V-Thinking的性能表现

模型在MMStar、MMMU-Pro、ChartQAPro、OSWorld等28项权威评测中,有23项达成10B级模型的最佳成绩,其中18项持平或超越参数量高达72B的Qwen-2.5-VL。

PictoGraphic PictoGraphic

AI驱动的矢量插图库和插图生成平台

PictoGraphic 133 查看详情 PictoGraphic GLM-4.1V-Thinking— 智谱AI开源的视觉语言模型系列

GLM-4.1V-Thinking的项目地址

  • GitHub仓库:http://github.com/THUDM/GLM-4.1V-Thinking
  • HuggingFace模型库:http://huggingface.co/collections/THUDM/glm-41v-thinking-6862bbfc44593a8601c2578d
  • arXiv技术论文:http://arxiv.org/pdf/2507.01006v1
  • 在线体验Demohttp://huggingface.co/spaces/THUDM/GLM-4.1V-9B-Thinking-Demo

如何使用GLM-4.1V-Thinking

  • API接口
    • 注册账号:访问智谱AI开放平台,注册账号并登录。
    • 获取API Key:在平台上创建应用,获取专属的API Key。
    • 调用API:根据API文档,使用HTTP请求调用模型接口,发送输入数据并获取模型的输出结果。例如,使用Python调用API的代码示例:
<span>import</span> requests
<span>import</span> json

<span># 设置API接口地址和API Key</span>
api_url <span>=</span> <span>"http://api.zhipuopen.com/v1/glm-4.1v-thinking"</span>
api_key <span>=</span> <span>"your_api_key"</span>

<span># 准备输入数据</span>
input_data <span>=</span> <span>{</span>
    <span>"image"</span><span>:</span> <span>"image_url_or_base64_encoded_data"</span><span>,</span>
    <span>"text"</span><span>:</span> <span>"your_input_text"</span>
<span>}</span>

<span># 设置请求头</span>
headers <span>=</span> <span>{</span>
    <span>"Authorization"</span><span>:</span> <span><span>f"Bearer </span><span><span>{</span>api_key<span>}</span></span><span>"</span></span><span>,</span>
    <span>"Content-Type"</span><span>:</span> <span>"application/json"</span>
<span>}</span>

<span># 发送请求</span>
response <span>=</span> requests<span>.</span>post<span>(</span>api_url<span>,</span> headers<span>=</span>headers<span>,</span> data<span>=</span>json<span>.</span>dumps<span>(</span>input_data<span>)</span><span>)</span>

<span># 获取结果</span>
result <span>=</span> response<span>.</span>json<span>(</span><span>)</span>
<span>print</span><span>(</span>result<span>)</span>
  • 开源模型
    • 下载模型:访问Hugging Face,找到GLM-4.1V-Thinking模型页面,下载模型文件。
    • 加载模型:使用相应的深度学习框架(如PyTorch)加载模型。
    • 进行推理:将输入数据预处理后输入模型,获取模型的输出结果。例如,使用PyTorch加载模型并进行推理的代码示例:
<span>from</span> transformers <span>import</span> AutoModelForVision2Seq<span>,</span> AutoProcessor
<span>import</span> torch

<span># 加载模型和处理器</span>
model_name <span>=</span> <span>"THUDM/glm-4.1v-thinking"</span>
model <span>=</span> AutoModelForVision2Seq<span>.</span>from_pretrained<span>(</span>model_name<span>)</span>
processor <span>=</span> AutoProcessor<span>.</span>from_pretrained<span>(</span>model_name<span>)</span>

<span># 准备输入数据</span>
image_url <span>=</span> <span>"image_url_or_image_path"</span>
text <span>=</span> <span>"your_input_text"</span>
inputs <span>=</span> processor<span>(</span>images<span>=</span>image_url<span>,</span> text<span>=</span>text<span>,</span> return_tensors<span>=</span><span>"pt"</span><span>)</span>

<span># 进行推理</span>
<span>with</span> torch<span>.</span>no_grad<span>(</span><span>)</span><span>:</span>
    outputs <span>=</span> model<span>(</span><span>**</span>inputs<span>)</span>

<span># 获取结果</span>
result <span>=</span> processor<span>.</span>decode<span>(</span>outputs<span>.</span>logits<span>[</span><span>0</span><span>]</span><span>,</span> skip_special_tokens<span>=</span><span>True</span><span>)</span>
<span>print</span><span>(</span>result<span>)</span>
  • 在线体验平台
    • 访问体验链接:访问Hugging Face平台上的GLM-4.1V-Thinking体验页面。
    • 输入数据:在网页上上传图像或输入文本。
    • 获取结果:点击“运行”按钮,等待模型处理并查看结果。

GLM-4.1V-Thinking的应用场景

  • 教育辅导:辅助学生解决数学、科学等学科的复杂问题,提供详细解题步骤和推理过程,帮助学生更好地理解和掌握知识。
  • 内容创作:结合图像和文本生成创意内容,如广告文案、社交媒体帖子、新闻报道等,提升内容创作的效率和质量。
  • 智能交互:作为智能客服或虚拟助手,理解用户的问题和需求,提供准确、及时的回答和解决方案,支持多模态输入。
  • 行业应用:在医疗、金融、工业等领域,辅助专业人员进行数据分析、报告生成、设备监控等任务,提高工作效率和准确性。
  • 娱乐与生活:为旅游提供攻略和景点介绍,为美食推荐菜品和烹饪方法,为游戏生成剧情和任务设计,丰富用户的娱乐体验。

以上就是GLM-4.1V-Thinking— 智谱AI开源的视觉语言模型系列的详细内容,更多请关注其它相关文章!


# 官网  # 红米qq空间推广营销  # 桃源专业网站建设  # 周口网站推广多少钱  # 婚礼用酒推广营销方案  # 营销推广之外部推广有哪些  # 荆门企业营销推广中心  # 南平seo课程  # 企业网站推广电话多少钱  # 焦作整合营销推广方案  # seo制作  # 客服  # 模态  # 基座  # python  # 工作效率  # 多模  # 加载  # 一言  # 文档  # 开源  # type  # qwen  # 智谱ai开放平台  # hugging face  # ai  # 处理器  # git 


相关栏目: 【 行业资讯67740 】 【 技术百科0 】 【 网络运营39195


相关推荐: 为什么有的夸克带电  丰田type-c接口是什么  平板键盘nfc功能是什么意思  typescript是做什么用的  如何用adb命令停用系统软件  电焊机power和oc是什么意思  苹果16有哪些亮点功能  typescript用在哪里  开机如何进入命令行模式  j*a怎么保存到数组  春运抢票如何抢连坐的票  怎么看手机是不是双模5g手机  平仓是什么意思?  手机nfc功能功能是什么意思  闪光灯power闪烁是什么意思  苹果16有哪些bug  阿里云手机云盘怎么用_阿里云盘苹果手机怎么用教程  nfc功能是什么意思怎么开启  sausage是什么意思  车子上面nfc功能是什么意思  typescript怎么传json  如何增加固态硬盘  typescript如何使用viewer  如何查看网站域名解析  win7如何打开命令行窗口  4800日元等于多少人民币  typescript属性只读如何修改  如何更新typescript  如何修改cad中的命令  typescript有什么作用  苹果16有哪些不同  单片机怎么读取电流值  交管12123协议头不完整怎么解决  折叠屏手机为什么没火  苹果16系统有哪些改变  typescript接口怎么选  类似微信的聊天软件有哪些  如何测固态硬盘芯片  春运抢票可以抢几次啊  夸克为什么老是投屏失败  如何ping测试命令  夸克*免费吗  j*a怎么复制数组中  安装固态硬盘如何设置  电脑显示器上power是什么意思  本科一批和本科二批是什么意思  新固态硬盘如何装系统  苹果16更新了哪些功能  ai文件在线打开工具有哪些  如何使用net命令 

搜索