自ChatGPT横空出世引爆AI大模型热潮以来,科技界一场关于"开源"与"闭源"的辩论被推向新的高潮。
这场争论的源头可追溯至计算机文明的启蒙时代——1998年2月3日,自由软件运动活动家克里斯汀·彼得森(Christine Peterson)首次提出"Open Source"这一革命性术语,次日Linux创始人林纳斯·托瓦兹(Linus Torvalds)发布具有里程碑意义的GPL版权许可说明,正式为开源运动奠定法律基石。
在开源运动早期,埃里克·雷蒙德(Eric S. Raymond)在《大教堂与集市》中预言:"足够多的眼睛,可使所有问题浮现。"这一理念催生了Apache、MySQL等影响深远的项目。而后多个以开源为核心战略的企业的相继问世,也说明了开源商业化的可行性。
包括国内在AI大模型这波热潮中,也呈现出了一个显著的趋势是:众多科技企业正以前所未有的热情拥抱开源生态。从学术机构到科技巨头,开源已成为中国大模型发展的重要技术路径选择。
AI与开源不是对立关系,而是共生关系
目前大部分企业都在积极拥抱开源,但更多是在被动的接受。其实,在AI与开源的关系认知上,一直存在着一个普遍的认知误区。很多人想当然地认为AI与开源是天然对立的——AI研发需要巨额投入,而开源则意味着技术外泄。但事实恰恰相反,AI和开源更像是共生关系。
Linux基金会执行董事Jim Zemlin曾说过:"AI将吃掉软件世界,而开源将吃掉AI。" 这一观点在SUSE的实践中得到了充分验证。SUSE APAC Senior Director & CTO Vishal Ghariwala指出,生成式AI极大地扩展了人类实现创造性工作的能力。
过去,开源社区的合作主要依赖人与人之间的协作,而如今,生成式AI的加入使人与AI之间的合作成为可能。例如,工程师在启动新项目时,可以利用AI快速搭建基础框架,而不再需要从零开始写代码。这种“人机协作”模式极大地提升了开发效率,使开源社区能够更快响应技术变革。
在这种趋势的影响下,似乎开源成了企业发展的必选项。但由于开源项目最初是由少数开发人员在非企业级环境中自发开发的,直接使用开源项目是有一定风险的。
正如 Vishal Ghariwala所言,从人的角度出发,当人们在开源世界中看到这种模式时,可能会对开源项目的可信度产生怀疑,担心是否存在一些尚未察觉的潜在问题。而企业在安全、性能、易用性方面有着更高的要求,所以在选择开源时则更为慎重。
“不能直接将其大规模部署到企业环境中,而是需要先进行试验,了解其运行机制。”——这是SUSE提倡的理论。
作为自成立之初就坚持100%开源的数字化产品和解决方案提供商来说,为了平衡开源和企业需求的关系,会将上游社区的开源项目引入下游,首先由SUSE的工程师检查是否存在安全漏洞。在企业客户使用过程中,如果发现安全漏洞,SUSE的工程师会负责打补丁,并将安全补丁推送给客户。
此外,为了确保企业使用的平台解决方案中所涉及的开源项目和技术符合行业标准以及国家法规政策,例如FPS、SLES、CC等。SUSE会通过技术团队确保开源项目的代码库是安全的,从而为客户采用开源项目提供保障。“我们确保这些项目具有企业级质量,不会出现软件问题,并且具有较长的生命周期,因为我们会持续推送补丁,遵循业界的安全最佳实践,并定期发布新的版本,” Vishal Ghariwala如是说。
而在易用性方面,SUSE会将所有需要的开源项目打包到一个解决方案中,并实现集成。例如,Rancher Prime就是由多个开源项目组成的,包括Kubernetes、安全和存储相关的开源项目。
开源的不是安全的,安全问题亟需破解
聚焦到安全问题,企业在选择AI产品及服务时,往往会考虑安全性、性能、易用性以及可扩展性等。其中,安全是最为重要的前置条件。据DeepInstinct的第四版报告指出,2024年有75%的安全专业人员目睹了网络攻击的增加,其中85%的攻击由生成式AI驱动。
SUSE是如何解决这一问题的?
AI大模型爆火后,SUSE紧跟技术趋势,推出了“SUSE AI平台。”被问到SUSE AI平台和开源的关系,Vishal Ghariwala表示,AI平台是一个可伸缩的平台,能够提供基本功能以运行AI工作负载,并且可以部署在云端,与底层的GPU相连。
其次,辅助AI平台的工具和技术种类繁多,例如开发人员在开发模型时可以使用开源的Keras、PyTorch,在运行模型时可以使用vLLM和Ollama等。因此,当客户需要使用AI时,仅依靠AI平台是不够的,还需要配备各种开源工具和技术,这就是所谓的“AI平台+开源”。
而SUSE AI正是一个集安全与信任、自由选择、扩展性于一体的企业级开源云原生AI平台。其采用了零信任安全机制,提供敏感信息的安全处理机制、端到端的漏洞扫描和管理,以及负责任AI护栏技术。同时,其集成了SUSE Observability,提供具备完全可观测性的AI解决方案,确保数据合规,并通过可视化控制面板提供包括token的用量和GPU利用率和性能瓶颈等AI负载的关键指标。
除了平台内置的这种安全能力外,SUSE还通过远程学习、培训等服务为客户保驾护航。一方面,针对客户的运营团队,另一方面,针对客户的架构团队。目前是帮助客户了解SUSE有哪些产品可以帮助他们解决安全方面的问题。
当然,SUSE还提供专业服务,第一,SUSE的咨询师帮助客户部署不同的项目,确保项目在建构、架构、安全方面是非常顺滑的。第二,派驻SUSE的工程师到客户的场所,帮助他们完成基础设施搭建的工作。
三大杀手锏,厘清AI落地的三大难题
安全是重要因素之一,但绝非AI难落地的唯一因素。据相关调查报告指出,至2025年1月份,仅有44%的PoC进入生产环节;同时由于模型及工具应用的不一致性、扩展及信任等各种原因,预计在2027年,60%的生成式AI项目将在PoC阶段后被放弃。
也就是说,AI离真正的落地还有很长一段路要走。除了安全外,Vishal Ghariwala认为,成本居高不下和选择性越来越多也是影响AI落地的重要因素。
SUSE可以从三个方面帮助解决AI落地难的问题:第一,解决迁移性问题:客户在开展AI项目时面临的一大障碍是工具选择的困境。开源世界中有大量工具可供选择,但客户往往因选择过多而无从下手,例如不清楚哪些场景适合使用专有工具,哪些可以使用开源工具。SUSE为客户筛选并组合合适的开源工具,帮助他们克服AI项目部署的障碍。
第二,提升可延展性:开源项目通常在单一项目中使用较为容易,但将其集成到其他项目中则会面临巨大的挑战。SUSE AI平台是云原生的,天然支持Kubernetes等技术,能够很好地解决AI项目的可伸缩性问题,帮助客户在未来将AI项目扩展到更多场景。
第三,客户可能对AI的可靠性和道德伦理问题存在担忧,担心AI模型是否真正负责任。SUSE通过GuardRail使AI大模型的输出结果无偏见且符合预期标准。此外,SUSE还通过SUSE Security来确保AI大模型不会出现漂移现象,并保护平台上的数据不被窃取。一旦发现安全漏洞,SUSE的工程师会迅速响应,确保平台的安全性。
目前,很多企业客户也正在基于SUSE AI实现企业级AI创新:
皓康医疗,一家互联网医院,计划采用SUSE AI作为其AI基础设施,用于运行医学影像分析和医学诊断生成;德国托管服务提供商FIS集团借助SUSE AI构建面向SAP工作负载的可信AI解决方案,实现了令牌使用、模型性能、GPU利用率的全链路可视化,加速了从智能发票处理到实时推荐等应用开发;IT服务与咨询企业TCS通过SUSE AI构建其生成式AI平台,用于托管其多个AI用例,并将多个生成式AI服务聚合至单一界面,从而为用户快速提供技术服务。
写在最后
从Linux到生成式AI,开源运动的本质始终未变:汇聚全球智慧,加速技术民主化。SUSE的实践表明,AI与开源并非零和博弈——通过企业级平台的桥梁,两者将共同推动一场从“代码自由”到“生产力自由”的变革。
正如SUSE大中华区总裁陈毅威所言:“当数字经济浪潮奔涌、新质生产力加速重构产业格局之际,中国企业正从"上云"向"云原生"跃迁,而AI的爆发性力量正为这场变革按下快进键。开源,将成为驱动这场深度变革的核心动能。”而在这场变革中,SUSE的目标很明确:让企业既能拥抱开源的野性创新,又能享受AI的安全与效率。