全面开源的阿里云,为AI应用大爆发做准备

2025-04-21 116 0

全面开源的阿里云,为AI应用大爆发做准备


随着开源模型的涌现,其在性能上已经能和最领先的闭源模型匹敌。此外开源还降低了模型训练成本,让最先进的模型也能低成本部署和应用。


文|闫佳佳

ID | BMR2004


随着AI时代的到来,阿里巴巴集团(以下简称“阿里”)已经完全改变了企业发展战略。


阿里巴巴集团CEO吴泳铭在2025年2月24日宣布,未来三年内,阿里计划投入超过3800亿元用于全球云服务和AI硬件基础设施的建设,远超公司过去十年在该领域的总投入。


大模型方面,阿里云已经取得了显著成果。目前已经开源了超过200个不同的模型,通义千问(Qwen)的衍生模型数量在海内外开源社区中突破10万个,已经超越美国Llama系列模型,稳居全球开源大模型第一。


阿里云通义千问团队相关人士告诉《商学院》杂志,通过开源,阿里云希望建立一个强大的AI生态系统,让海量中小企业和AI开发者更早、更快地用上通义千问,推动大模型技术的普惠和应用落地,促进中国大模型生态建设。

因为只有在大模型的基础稳固后,才能为未来的商业化应用提供无限可能。


01

全面开源推进AI生态构建


实际上,从2023年8月起,阿里云便开始大规模开源其大模型系列,成为我国首家大规模开源的大厂,屡次斩获Chatbot Arena、司南OpenCompass等权威榜单“全球开源冠军”“国产模型冠军”。2024年仅Qwen2.5-1.5B一款开源模型,就占到了全球最大开源社区Hugging Face模型下载量的26.6%,稳居世界第一。


阿里云方面表示,开源能够集合全球开发者的智慧和力量,与单个公司独自研发相比,开源能更快速地推动技术创新与迭代。一个显著的例子是,DeepSeek在开源R1之后,全球出现了复刻R1的狂潮,极大地打击了OpenAI引以为傲的o1推理模型,推动全球大模型技术进入推理模型的新阶段。


另一方面,开源有利于生态系统的构建,开源模式使任何人都能免费下载并部署AI模型,极大地促进了新技术的普及。比如DeepSeek提供的六个蒸馏模型中就有四个基于千问的开源模型;李飞飞团队也基于千问开源模型,成功训练出性能媲美顶尖推理模型的新模型s1-32B,并在竞赛数学问题上的性能表现比o1-preview高出27%。


进一步来看,开源还可以加速AI产业化进程,促进AI技术在各行各业中的落地实施。对于初创企业和中小企业而言,直接使用开源模型可以显著降低进入AI领域的技术和资金门槛,并快速结合自身特定的知识库或语料库,开发出适用于各自行业的垂直解决方案。


值得一提的是,阿里云在今年3月6日发布的QwQ-32B不仅适用于企业,也适合个人开发者和普通用户,还能在消费级显卡上实现本地部署,从而大幅降低了部署和使用成本。此外,通过大规模强化学习,该模型在数学、代码及通用能力上实现飞跃,整体性能比肩DeepSeek-R1。


然而,随着Scaling Law(规模定律,指只要不断增加模型规模,如参数数量、数据量、计算资源,AI性能就会持续提升)带来的边际效益逐渐减少,以OpenAI为代表的大模型厂商在数据积累和算力堆砌上已经达到了极高的水平,几乎触及了现有技术和资源条件下的“天花板”。因此,探索新的优化路径变得尤为关键。业界开始探索通过极致化的算力优化来降低成本,并利用强化学习和推理阶段的改进,以更高效的方式训练高性能模型。QwQ-32B的推出,正是继DeepSeek-R1之后,又一次验证了强化学习作为一种有效的训练方法,在提高模型性能方面蕴藏巨大潜力。


阿里云方面表示,随着开源模型的涌现,其在性能上已经能和最领先的闭源模型匹敌。此外开源还降低了模型训练成本,让最先进的模型也能低成本部署和应用。


更有意思的是,为了应对来自中国公司的竞争,谷歌和OpenAI等国际巨头也开始调整策略,进行有限度的开源尝试。


比如,谷歌以前更专注于闭源模型Gemini,最近也开源了Gemma 3;被戏称为CloseAI的OpenAI在中国开源环境的影响下,态度也发生了转变,其 CEO Sam Altman 也承认 OpenAI 的闭源策略是错误的,并公布了未来的开源计划。


02

“云+AI”为应用大爆发做好准备


当前,越来越多的企业倾向于直接使用大模型厂商提供的标准API服务,特别是对于业务相对固定、不需要大量定制化的场景。而且使用API服务也是一种更加经济的方式,因为其只在实际调用时才会产生成本,这种方式特别适合于有明显波峰波谷需求的场景,如客服系统,除白天高峰时段外,其他时间需求较低,不需要从头开发一个大模型,成本显著降低。


阿里云百炼平台是阿里旗下一个专为企业设计的AI大模型服务平台,旨在帮助企业和开发者更高效地构建、训练和部署AI应用。目前,基于该平台的API调用是阿里云大模型商业化的主要方式。阿里云百炼平台提供了快速便捷的服务接入方式,使用户能够轻松利用阿里云的大模型能力。


除了标准API调用外,阿里云还提供联合开发的整套AI定制化解决方案服务,包括模型微调、定制模型等。这种方式特别适合那些对模型技术不够了解或需要高度定制化的客户。针对对数据安全性和隐私保护有需求的用户,阿里云还推出了私有化部署方案,例如将模型集成到一体机中,直接销售给客户。


在推动开源大模型商业化过程中,阿里云进行了多种探索,以更具性价比的方式向社会开放AI能力。


自2024年以来,阿里云已多次下调通义千问系列模型的价格,其中Qwen-Long API输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅高达97%。不仅如此,其他模型如Qwen-Turbo、Qwen-Plus、Qwen-Max以及视觉理解模型也经历了大幅度降价,使更多企业和开发者能够以更低的成本获取AI能力。


需要注意的是,成本不断降低得益于阿里云在AI基础设施方面的不断进步,尤其是在提高计算效率、优化网络性能以及提升存储速度等方面。比如,阿里云推出了可支持超过10万个GPU稳定连接的高性能网络架构HPN7.0、最大支持单机16卡的磐久AI服务器和数据吞吐量达20TB/s的CPFS文件存储。


此外,阿里云百炼平台已集成200多款大模型API,覆盖国内外主流开源和闭源模型。为进一步降低用户使用文本大模型API的成本,阿里云百炼平台还推出全新KV Cache计费模式,新模式可通过自动缓存上下文避免重复计算,进一步降低模型调用成本,适用于长文本、代码补全、多轮对话、特定文本摘要等场景。


整体来看,AI开源大模型在商业化过程中面临着两大主要痛点:一是缺乏能够显著改变用户体验或效率的“杀手级应用”。这意味着整个市场还没有完全准备好迎接AI大模型的到来,或者说这些技术的应用场景和潜力还未被充分发掘和验证;二是B端市场仍处于初步探索阶段,企业对如何利用开源大模型实现具体业务价值的认识不足,相比闭源大模型,难以说服企业管理层投资于AI解决方案。


针对上述挑战和未来规划,阿里通过“云+AI”的一体化全栈方案做了一些准备。比如用AI基础设施的产品力进一步扩展和发展B端市场。同时,通过夸克(阿里巴巴旗下的智能搜索产品)的改版升级等实践,在C端市场上探索大模型的应用潜力,旨在打造现象级产品样本,展示最佳的AI体验入口。


03

通义千问的多场景探索


随着大模型技术的不断进步,在多个场景展现了巨大的应用价值和潜力。


2024年1月,中国一汽(以下简称“一汽”)携手通义千问推出了汽车行业首个基于大模型的商业智能(BI)应用——GPT-BI。一汽利用千问大模型能力实现数据智能化,将企业的大量沉睡的数据资产激活,转化为有价值的资源。


具体而言,GPT-BI帮助一汽实现了销售数据自动报表生成,大幅提升了工作效率。一汽红旗品牌运营委员会副总裁门欣曾表示,AI应用到实际工作中还有更多场景。比如,整车在开发过程中涉及大量的数据,包括汽车生产的尺寸匹配、工艺评审、装配策略等,都有着文件式严格的专业方向要求,这些环节原先都是用人工去衡量。如今,红旗基于这些数据和要求生成了红旗汽车的自动评价模型,并引进到整车生产过程中,由此,一些原本需要花费20天、50天甚至80天以上的环节,现在在工作台上只需要秒级或天级就能解决。


基于GPT-BI等真实业务场景的探索,一汽还将利用大量高质量数据资产,在“阿里云百炼”一站式大模型应用开发平台上打造面向研发、制造、售后服务等多领域的垂直大模型,让大模型在生产、销售等多个环节发挥效用。


3月11日,Manus平台宣布将与阿里通义千问团队正式达成战略合作。双方将基于通义千问系列开源模型,在国产模型和算力平台上实现Manus的全部功能,致力于为中国用户打造更具创造力的通用智能体产品。


业界普遍认为,Manus与阿里的合作不只是利用先进的大模型,还为了寻找性价比高的云平台以支持庞大的算力需求,特别是在中国市场。双方合作将有助于加速AI智能体的产业化进程,通过高效、经济的云计算解决方案来降低运营成本,提升服务性能。


不久前,全球知名的科技巨头苹果公司也与阿里达成合作,阿里作为苹果的供应商为中国版的iPhone开发人工智能功能。


分析人士指出,苹果选择与阿里合作,不仅是因为看中了阿里云平台的算力优势,还有通义千问模型系列所具备的强大多模态能力。对于AI智能体而言,除了需要一个强大的语言模型,还需拥有处理视觉、音频等多模态输入的理解能力,这是苹果等公司在选择AI大模型合作伙伴时的关键考量点之一。


在多模态能力方面,通义千问Qwen-Vision Language模型表现出色。以最新版Qwen2.5-VL为例,该模型不仅能处理文本输入输出,还具有处理视觉和视频输入的能力,包括对长达1小时的视频进行理解。


相较于上一代Qwen2-VL,该模型进行了多项更新。比如增强的Grounding能力,提高了对物理事件和物体的识别能力,使模型能更好地关联文字描述与实际图像或视频中的元素。增强的OCR(光学字符识别)能力,在处理复杂或手写文本、长文本时表现优异,无需针对特定类型的文本进行额外调优,并且在处理散发性角度的文字时表现更佳。


在 Qwen2.5-VL 中,通义千问团队还设计了一种更全面的文档解析格式—— QwenVL HTML 格式,它既可以将文档中的文本精准地识别出来,也能够提取文档元素(如图片、表格等)的位置信息,从而准确地将文档中的版面布局进行精准还原。


据介绍,该模型除了性能很强之外,还内置了agent的能力,比如,它可以输出符合标准JS格式的文档,这对于智能体的实际应用至关重要。因为只有当输出格式标准化后,智能体才能有效地调用这些结果。通过这些巧妙的设计,不仅增强了模型的功能性和实用性,也为未来的AI产业发展提供了有力的支持。


从2024年开始,阿里云已经着手将大模型直接部署到手机等设备端,以实现本地任务的执行,如语音摘要生成等。阿里与苹果的合作采用端云结合架构,其中云端拥有大型模型,而设备端则配置较小参数的模型,并结合安全措施,这是未来的一个重点方向。


从部署模式方式来看,大模型在手机的部署方式有两种:一种是本地部署,直接将一个大模型内置到手机中,或部署一个较小的模型(如0.5B至7B参数规模),用于执行对数据敏感的任务;另一种是云端结合,本地运行较小模型处理敏感数据,复杂任务则通过网络提交给云端的大模型进行处理。


云端大模型的优势是性能更强大,能够处理更为复杂的任务。参数更多,性能表现更好,但是也存在延迟,并且涉及数据传输,可能带来隐私问题。而本地大模型的优势是提供更好的数据安全性和隐私保护,因为所有处理都在设备上完成。对于不需要高度智能的基本任务来说,本地模型已经足够使用。但是缺点是由于尺寸限制,其性能无法与云端模型相比,体验上可能有所欠缺。


虽然本地模型对于基础任务已经足够,但对于需要更高智能水平的定制化需求,云端大模型仍然是必不可少的。未来的发展可能会走向一种平衡,既利用本地模型保证数据安全和快速响应,同时依靠云端模型来解决复杂问题。


来源 | 2025年4月刊


我也说一句

已经有条评论

全部评论

    上一篇:一夜之间态度转变,百度为何从闭源走向开源

    下一篇:亚马逊云科技:打造“全家桶”服务能力

    QQ空间 新浪微博 豆瓣网 微信

    请先来登录吧

    没有经营者账号?立即注册
    忘记密码?

    请先来注册吧

    已有经营者账号?立即登录

      报名成功!

      请保持手机正常使用,我们会随时与你联系确认

      知道了

      加入班级成功!

      请保持手机正常使用,我们会随时与你联系确认

      知道了