近日,DeepSeek开始灰度测试识图模式,并大范围开放给用户体验。
在具体的实测体验中,开启该模式后,用户可以直接上传图片让DeepSeek“看”世界,其能力边界远超简单的文字提取。比如,网友上传在博物馆拍摄的不明文物并开启“深度思考”后,模型不仅详细描述该文物纹理材质,还准确推断出其年代风格;面对时下流行的表情包或梗图,它也能准确理解。
DeepSeek“开眼”,与其他主流大模型有何能力差异?有哪些优势和不足?科技日报记者就此采访了有关专家。
第一问:DeepSeek识图模式与豆包等其他大模型有何区别?
“与其他大模型相比,DeepSeek识图模式的核心区别集中在技术路径、算力消耗和交互逻辑上。”赛迪顾问人工智能与大数据研究中心分析师白润轩说。
他解释道,DeepSeek识图模式以“视觉原语思考”为核心。这一核心框架主打精准空间推理和复杂场景解析,而非单纯的文字OCR(光学字符识别)或基础识别。而豆包等模型更侧重结合联网搜索提升识别时效性,多依赖传统图像编码后进行文本理解,空间推理精度稍弱。
同时,这一框架在实际运行中“算力友好”。白润轩介绍,DeepSeek处理800×800分辨率图片仅消耗约90个tokens(词元),远低于GPT等主流模型,响应速度更快。
此外,DeepSeek识图模式为独立入口,专注纯视觉理解,不额外启用联网功能,而豆包等大模型会自动联动搜索。
第二问:“视觉原语思考”的核心创新点在哪?
伴随识图模式的上线,DeepSeek还公开了其背后的多模态模型技术细节,并公布了“视觉原语思考”核心框架。
“这一框架的核心创新点在于跳出主流模型‘堆分辨率’的思路,聚焦解决传统多模态模型的‘指代鸿沟’困境。”白润轩解释。
传统多模态大模型在面对密集场景时存在一种名为“指代鸿沟”的困境,模型虽然能看见图片,但在推理过程中用“左边那个大的”等模糊的自然语言构建逻辑链时,很容易因描述不准导致注意力漂移。
而“视觉原语思考”框架将点、边界框等空间视觉元素作为“思维”基本单元,融入模型推理全过程,这就像给模型装上了一根“赛博手指”,让AI在推理时能在“脑海”中精确指出目标物,边想边指,大幅提升复杂空间布局、密集计数等场景的推理精度。
第三问:目前存在的不足及改进方向是什么?
在白润轩看来,DeepSeek识图模式目前主要存在三项不足。
一是知识库更新偏滞后。其模型训练数据截至2025年,识别2025年底后发布的新型产品易出现型号误判。
二是高难度场景表现还不稳定。面对视错觉图片、复杂物体计数等反直觉任务时,模型给出的答案稳定性不足,偶发逻辑崩溃。
三是功能边界较窄。目前仅支持纯视觉理解,暂不具备图像生成、视频理解及跨模态创作能力,且高并发时段偶有解析失败、响应延迟的情况。
“建议后续加快知识库迭代、优化反直觉场景算法;同时拓展多模态功能,进一步提升系统稳定性以适配更多用户的需求。”白润轩说。
1、“国际在线”由中国国际广播电台主办。经中国国际广播电台授权,国广国际在线网络(北京)有限公司独家负责“国际在线”网站的市场经营。
2、凡本网注明“来源:国际在线”的所有信息内容,未经书面授权,任何单位及个人不得转载、摘编、复制或利用其他方式使用。
3、“国际在线”自有版权信息(包括但不限于“国际在线专稿”、“国际在线消息”、“国际在线XX消息”“国际在线报道”“国际在线XX报道”等信息内容,但明确标注为第三方版权的内容除外)均由国广国际在线网络(北京)有限公司统一管理和销售。
已取得国广国际在线网络(北京)有限公司使用授权的被授权人,应严格在授权范围内使用,不得超范围使用,使用时应注明“来源:国际在线”。违反上述声明者,本网将追究其相关法律责任。
任何未与国广国际在线网络(北京)有限公司签订相关协议或未取得授权书的公司、媒体、网站和个人均无权销售、使用“国际在线”网站的自有版权信息产品。否则,国广国际在线网络(北京)有限公司将采取法律手段维护合法权益,因此产生的损失及为此所花费的全部费用(包括但不限于律师费、诉讼费、差旅费、公证费等)全部由侵权方承担。
4、凡本网注明“来源:XXX(非国际在线)”的作品,均转载自其它媒体,转载目的在于传递更多信息,丰富网络文化,此类稿件并不代表本网赞同其观点和对其真实性负责。
5、如因作品内容、版权和其他问题需要与本网联系的,请在该事由发生之日起30日内进行。