作者:赵广立 来源:中国科学报 发布时间:2026/1/30 16:21:03
选择字号:
清程极智发布AI Ping,推动大模型从可用迈向好用

 

随着大模型应用从“能不能用”迈入“如何长期、稳定、规模化运行”的新阶段,模型API服务的真实表现、稳定性与调用效率正成为产业关注的核心议题。1月29日,人工智能算力基础设施创新企业清程极智在京举办发布会,着重发布了其大模型应用程序接口(API)服务新品——AI Ping平台。

清程极智联合创始人、AI Ping产品负责人师天麾对AI Ping平台进行了系统地介绍。AI Ping聚焦大模型服务使用环节,围绕模型服务评测、统一接入与智能路由等核心能力,构建起覆盖“评测—接入—路由—优化”的完整链路。平台以真实业务场景为导向,对不同厂商、不同模型API 的延迟、稳定性、吞吐与性价比等关键指标进行长期、持续观测。

目前,AI Ping已覆盖30余家中国大模型API服务商,在统一标准与方法论下对模型服务能力进行对比分析,为企业在复杂的模型与服务选择中提供更加理性的决策参考。

发布会现场,清程极智联合20余家大模型API服务商,共同启动《智能、可持续大模型API服务生态计划》。该计划未来将围绕模型服务能力评估、评测方法论建设、行业交流与成果发布等方向持续推进,推动模型API服务从“可用”向“好用、易用、高性价比”演进。

中国工程院院士、清华大学教授郑纬民在发布会上指出,当前人工智能基础设施的核心任务正在发生变化。过去,主要服务于大模型的训练与推理,解决“如何生产智能”的问题;随着模型生态不断丰富和智能体广泛应用,行业正在进入以“智能流通”为核心的新阶段,更加关注模型能力如何在真实业务中高效、稳定地被使用。

他表示,实现智能流通的关键在于智能路由能力建设,其中既包括在多模型环境下为不同任务选择最合适模型的“模型路由”,也包括在同一模型的多种API 服务提供者之间进行性能与成本优化调度的“服务路由”。两类路由能力协同发展,将形成完整的AI 任务分发网络,决定人工智能系统的最终效率和使用成本。

发布会上,清程极智还与华清普智AI孵化器(T-ONE Innovation Lab)联合发布了《2025大模型API服务行业分析报告》。该报告基于AI Ping平台2025年第四季度的真实调用数据与持续性能监测结果,从模型、服务商与应用场景三个维度,对当前大模型API服务的供给结构与使用特征进行了系统分析。

报告指出,在模型与服务商高度多样化的背景下,API服务的核心竞争要素正从“价格差异”转向“交付质量”,包括响应时延、吞吐能力、稳定性与上下文支持等关键指标。同时,报告通过实证数据表明,在同一模型条件下,引入智能路由机制可在保障可用性的前提下,实现显著的性能提升与成本优化,为大模型API服务走向规模化、长期化使用提供了可验证的工程路径。

该报告将通过双方公众号对外公开,供行业参考与交流。

 
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。
 
 打印  发E-mail给: 
    
 
相关新闻 相关论文

图片新闻
发现一颗大小和轨道周期与地球相似的行星 新型“中国牌”晶体诞生
距离量子世界更进一步 中国科大利用量子传感网探测暗物质
>>更多
 
一周新闻排行
 
编辑部推荐博文