AI在线 AI在线

中小企业AI落地的算力“最优解”:一台插电即用的Mac mini

今天来聊下中小企业大模型应用落地的一些市场观察。 年初到现在,加起来聊过的两百来家企业中,约摸八九成都是年营收过亿,或者从规模上看,公司人数往往都在大几百人以上。 在新技术应用的初期,预算相对充足的企业中先行先试,很符合一般规律。

中小企业AI落地的算力“最优解”:一台插电即用的Mac mini

今天来聊下中小企业大模型应用落地的一些市场观察。

年初到现在,加起来聊过的两百来家企业中,约摸八九成都是年营收过亿,或者从规模上看,公司人数往往都在大几百人以上。在新技术应用的初期,预算相对充足的企业中先行先试,很符合一般规律。从服务供给上来看,市场上现在活跃的,无论是几家有自研模型的厂商类玩家,还是初创企业类的选手,主要还是在各自的资源禀赋范围内,给 KA 客户提供不同复杂度的大模型应用咨询和实施。

所谓 KA 客户,抛开决策链条长、跨部门协调复杂、存量系统集成难度高等老生常谈的问题外,他们预算往往也更加充足。从咨询或者实施要求来看,需要尽可能的覆盖足够多的核心业务场景,追求高代码,重工程优化,并且最后要统一收口到内部的自研或者外采的低代码平台上。

但与 KA 客户明显不同的是,中小企业往往会聚焦于几个高投资回报率的高业务价值场景,预算区间主要是小几十万甚至更低。好消息是,站在当前的时间点来看,开源的中小尺寸模型能力水平已经能满足大多数业务场景下的推理要求。而且,在KA客户上沉淀下来的相关垂直场景的最佳实践,也已经初步具备了下沉进行产品化封装的契机。

不过,实际部署的角度来说,对于中小企业而言传统自建 GPU 方案太贵,而云服务成本不可控。换句话说,当单点应用工程方案开始逐渐成熟的时候,如何让算力硬件进行长尾客群的适配,是需要从业者给出的回答。这篇给出的参考思路是,一台插电即用的 Mac mini或许是中小企业 AI 落地的算力“最优解”。

这篇试图说清楚:

Mac mini 的前世今生、和主流算力方案的特点对比、海底捞应用 Mac mini 案例拆解、Mac mini 插电即用的企业级配置实现,以及商业模式和挑战展望。

以下,enjoy:

1、Mac mini 的前世今生

在深入探讨 Mac mini 和主流算力方案的对比,以及海底捞案例拆解内容前,先和各位一起快速回顾下它的完整演进历程。换句话说,在 Mac mini 产品演进的基础上,为啥现在可以说解锁了中小企业 AI 算力底座应用场景。

图片

在 Mac mini,特别是搭载 Apple Silicon 芯片的 Mac mini 出现之前,对本地算力有需求的用户,无论是选择 Mac Pro 或搭载 NVIDIA 高端 GPU(如 RTX 系列)的 PC 工作站,抑或者手搓组装一台 PC,都无法回避的问题是,成本很高,占用空间很大,当然还有噪音大,很费电等等。比如 19 款 Mac Pro 塔式工作站的起手价是 4.8 万,功率最高 1400W。还需要外部散热辅助,所以,噪音大不大可想而知。

图片

1.1从 05 年的乔布斯说起

公开可查的新闻是,为了降低 Windows 用户切换到 Mac 的门槛,乔布斯在 20 年前(2005 年 1 月)发布了第一代 Mac mini,定位为"BYODKM"(Bring Your Own Display, Keyboard, and Mouse),起售价为 499 美元,据说也是苹果有史以来最便宜的 Mac。

图片

1.2Mac 商战中的几次转型

在这波 AI 浪潮到来之前,Mac 与机器学习几乎无缘。19 年和英伟达闹掰之后,CUDA 也不再支持 macOS,也意味着 Mac 彻底失去了访问当时 TensorFlow、PyTorch 等基于 CUDA 的框架的能力。

图片

当然,苹果这么大的公司肯定不会等着被卡脖子,早在 09 年就收购半导体公司 P.A. Semi,开始自研 ARM 处理器。之后在 iPhone 和 iPad 上也积累了十多年的芯片设计经验。期间,对英特尔研发速度和品质不满积累之后,2020 年 Mac 全面转向自研的 Apple Silicon。这个决定现在看起来,不仅解决了性能的巨大提升,创新的统一内存架构意外地给 Mac 在 AI 时代打开了一扇新的窗户。这个剧情有一说一,是不是有海思芯片和鸿蒙系统的发展历程既视感。

1.3今天的 Mac mini

目前一台 Mac mini 的性能,应该说已经足以媲美甚至超越几年前几万块的 Mac Pro,目前也是一些剪辑和设计类的专业创作者桌面上最具性价比的核心生产力工具。与此同时,对于开发者来说,无论是编译大型代码项目,还是在本地运行多个虚拟机和容器,合理配置的 Mac mini 也都可以提供了流畅的支持。此外,我也在Youtube 上看到一些开发者,开始充分发掘统一内存潜力,通过多个 Mac mini 集群上进行本地机器学习模型的训练和推理实验。

图片

2、主流算力方案对比

大致了解了 Mac mini 这段逆袭史后,再和当前中小企业在选择 AI 算力一般接触到的三大主流方案,进行一次正面对比会更加直观些。需要说明的是,NVIDIA A100、H100 及私有云等,默认不在中小企业的采购范围内,所以不在讨论范围内。

对比维度

自建 GPU 服务器 (RTX 4090)

公有云GPU 实例

Mac mini

初始硬件成本

高 (单卡 2 万+, 整机 5-10 万)

极低 (单台 0.5-5 万)

长期拥有成本

高 (电费、散热、运维)

高 (按时/按量计费)

极低 (家电级功耗)

功耗

巨大 (单卡 450W+, 整机~700W)

云端承担

微乎其微 (~50W)

物理空间/噪音

占用空间大,噪音巨大

无需考虑

随便放,运行静音

部署与运维

复杂 (DIY、驱动、环境配置)

中等 (需云平台知识)

极简 (插电即用)

数据隐私性

中 (依赖服务商承诺)

高 (数据不出本地)

核心技术优势

极致的原始算力 (CUDA 生态)

弹性和可扩展性

统一内存架构、极致能效比

2.1自建 GPU服务器

以 RTX 4090 为例,有性价比不错的算力和成熟的 CUDA 生态,但对于中小企业来说,除了初始购机成本,隐性成本的几笔账还是需要了解清楚:

图片

电费账单:一台 700W 功耗的机器 24 小时不间断运行,一年的电费就是一笔不小的开销。

环境要求:需要一个通风良好甚至有空调的环境,嘈杂的风扇噪音也不适合放在普通办公室。

运维挑战:从硬件组装、系统安装,到复杂的驱动配置、深度学习环境搭建,每一步都需要专业人员操作。这里面的一个悖论是,中小企业一般没有现成的这类 IT 运维人员。从服务商的角度来说,因为企业预算有限,也很难频繁现场实施和后续维护。

此外,为了响应信创政策,部分企业会选择国产 GPU 方案,这在满足合规性上是必要的,但从技术落地的角度看,由于其生态系统(类似 CUDA 的软件栈)成熟度尚在追赶阶段,往往会在模型兼容性、驱动稳定性和性能优化上,给部署带来额外的挑战和适配成本。

2.2公有云GPU实例

阿里云、华为云等提供的 GPU 实例,最大的诱惑是按需付费,免去了硬件投入。这对于需要进行短期、集中式模型训练的任务来说,确实是好选择。但对于我们讨论的、需要 7x24 小时提供服务的大模型应用场景,这无疑是一个“成本陷阱”。

图片

网页链接https://developer.aliyun.com/article/1607739

以阿里云上适合中小企业 AI 推理的入门级 GPU 实例 gn6i(搭载 NVIDIA T4 显卡)为例,一个入门级的配置(如 4 核 CPU, 15G 内存, 16G T4 显存),包年包月的费用约为每年 2 万块。这个价格虽然不高,但是已经超过了一台高配 Mac mini 的一次性硬件投入。更重要的是,传统行业的中小企业主们,对把自己公司的核心业务数据上传到云端,普遍有顾虑。虽然这个数据安全的问题一般不需要过多担心,但这也是一种能看到的显示用户心态问题。

对比之下,Mac mini 方案则代表了一种功耗、性能和成本综合最优的选择。从技术服务商的角度来说,通过系统性的预配置、产品化的封装,可以把它打造成一个开箱即用、插电即用的AI 推理终端。具体的技术配置示例会在后续段落详细介绍。

3、海底捞的 Mac mini 应用案例解读

在具体介绍 Mac mini 的使用配置前,先讲个海底捞的实际应用案例。最早我也是 8 月底在少数派的一篇《用 Mac 打造智能化餐厅,这是海底捞给出的答案》文章中看到的。

图片

原文链接 https://sspai.com/post/102160?utm_source=wechat&utm_medium=social

在餐饮这个极度依赖线下运营效率的行业,海底捞基于 Mac mini 作为门店的算力基座,把单店的运营效率在原有的数字化基础上又做了一次全面的提升。这部分内容我分成两块来介绍,先说清楚原文中提到的三个使用场景,再尝试拆解推演下这些应用场景背后,基于 Mac mini 的可能实现技术路径。

3.1三个应用场景

智能翻台管理

传统的翻台流程,高度依赖服务员的肉眼观察和对讲机里的口头沟通。在用餐高峰期,可能会导致空桌没人及时清理、顾客等位不能及时接待的情况,每一分钟的延迟,都直接影响着门店的坪效和最终营收。

图片

原文中提到的做法是,他们通过连接门店已有的 NVR(网络录像机),Mac mini 上的 AI 视觉模型,能够 7x24 小时不间断地实时分析各桌台的视频流。换句话说,通过秒级判断,自动识别出桌台正处于“用餐中”、“空闲可用”,还是“待清理”状态。这套系统帮助门店在高峰期的桌台利用率达到了 95%以上,平均顾客等候时间减少了 8 分钟。

自动化任务派发

传统的对讲机或人工派单模式,信息传递链条长,容易出现错漏或遗忘。海底捞的方案是,把上述的智能翻台系统的判断结果,和企业内部的任务系统或通讯工具打通,一旦 AI 判断某桌台进入“待清理”状态,系统会立即自动生成清台任务工单。这张工单会被直接推送到该区域负责服务员的移动设备(如企业微信或专用 App)上。

顾客评价分析

对于海底捞这样的热门店铺,每天来自大众点评、小程序等渠道的顾客评价数量少不了。传统依靠人工去阅读、归纳和总结,不仅耗时耗力,也很难快速发现共性的服务短板或潜在的爆款菜品。

图片

他们的方案是利用部署在 Mac mini 上的大模型,对所有文本评价进行自动化的情感分析、关键词提取和意图分类。最终实现实时监控并告警关于“菜品口味”、“服务态度”、“环境卫生”等关键领域的负面评价。更重要的是,可以给总部的运营和产品团队提供精准的数据支持,例如,“‘捞派肥牛’反馈‘偏肥’的评论本周增加了 20%”,这类反馈是驱动菜品迭代和服务流程优化的重要依据。

3.2技术实现推演

单看应用场景的描述有些生硬,基于公开信息和成熟的开源技术栈,我尝试推演出一套可能的技术栈。

整体架构图

图片

数据接入层中,视频流通过工业标准的 RTSP 协议,利用 OpenCV 程序库,从门店已有的 NVR 安防系统中实时拉取各个摄像头的视频流。这是一种非侵入式的、高效的视频获取方式。文本流可以通过编写 API Client 脚本,定时从美团、大众点评等公域平台或企业内部的小程序后台,抓取最新的顾客文本评价数据。

AI 核心层部分,首先视觉模型应该并非简单的图像分类,更可能是一个轻量化的目标检测模型(如 YOLO 系列)。能精准识别出画面中的关键元素(桌子、餐具、顾客、服务员),并根据这些元素的状态组合(例如:检测到桌上有餐具但无人),综合判断出桌台的最终状态。在 Mac mini 上部署一个 30B 左右尺寸的 Q4 量化模型,负责处理所有文本分析任务,包括情感判断、主题分类、关键词提取等。

最后,流程编排和执行层中,推测海底捞使用了类似 n8n 或其他自研的工作流引擎,作为连接 AI 能力和业务动作的“胶水层”。以智能翻台为例,假设使用 n8n 和企业微信 api 搭配,大致的流程如下:

图片

4、Mac mini 核心配置拆解

理论和案例都已清晰,这部分我会介绍下如何通过一系列标准化的流程,把一台刚拿到手的新 Mac mini,配置成一个交付给客户即可插电即用的算力终端。需要说明的是,这部分主要阐述实现思路和关键技术选型。更具体的配置脚本、完整的代码示例以及手把手的实操视频,我会在知识星球社群内进行进一步分享。

图片

4.1裸机的标准化配置

交付给客户的不是一台 Mac mini 裸机,而是一个根据大模型应用不同,调试好的插电即用的软硬件结合体。这个过程的核心,是预配置、标准化与自动化。

系统初始化:首先,需要先连接显示器,为 Mac mini 设置自动登录、关闭 FileVault 加密(这是实现无头启动的关键)、开启 SSH 和远程管理等。每一个步骤都是为了让它成为一台真正无需人工干预的服务器。

核心引擎安装:这部分选择使用 Colima,而非大家更熟悉的 Docker Desktop。原因在于,Colima 是一个纯粹的命令行工具,它能被 macOS 的底层系统服务(launchd)完美接管,实现真正的开机自启和后台无感运行,这对于无人值守的服务器设备很重要。

自动化部署:随后,运行一系列预先编写好的自动化脚本,来完成所有大模型应用环境的部署。包括拉取 Ollama、n8n 以及开发的业务应用的 Docker 镜像,配置容器间的网络,映射数据卷,确保所有服务组件都能协同工作。

4.2网络与服务配置

配置好的 Mac mini 交付给客户后,不需要任何技术人员操作,只要插上网线,就能自动连入公司网络并启动所有服务。这背后的关键技巧在于,对网络协议的巧妙利用和自动化脚本的深度整合。

零配置配网:需要说明的是,实际使用时会强制要求使用有线网络,这并非限制,而是为了极致的简单。利用几乎所有办公网络都支持的 DHCP 协议,Mac mini 在开机后会自动从路由器获取一个局域网 IP 地址,全程无需任何手动配置。

服务自启动与智能依赖:使用 macOS 的 launchd,来确保所有核心服务都能在开机后自动运行。编写的启动脚本,并非简单的 sleep 等待,而是通过智能端口检测,确保 Ollama 等底层服务完全就绪后,再启动上层的业务应用,这种做法实测可以极大地提升了系统的健壮性。

动态 IP 适配:另外,通过一个 Python 脚本在系统启动的时候,自动检测本机被分配到的 IP 地址,然后动态修改所有应用服务的配置文件,并生成一份包含所有访问地址的说明文件。

4.3OTA 更新与数据上报

完成的第一次交付后,因为中小企业的预算有限,一般不会安排过多的现场运维。不同于客户自建 RTX 4090 服务器的情形,每一台交付出去的 Mac mini,其操作系统版本、软件环境、配置脚本都完全一致,这使得远程运维和 OTA 更新变得极其可靠和可规模化。换句话说,远程运维也算是 Mac mini 方案的天然加成。

远程安全连接:为每个 Mac mini 都预装了 Tailscale。这是一个业界常用的零配置 VPN 工具,它可以轻松穿透复杂的企业内网,可以在客户授权的情况下,建立一条点对点的安全加密通道,进行远程维护、故障排查和软件升级,全程无需客户进行任何网络设置。

OTA 更新:类似现在比较热门的新能源车企的OTA 更新机制,Mac mini 方案下同样支持在当模型算法或应用功能有重要升级的时候,在业务低峰期向不同客户的Mac mini设备远程推送更新包。一方面,大模型技术还没有明显收敛,今天一个全面SOTA的开源模型,可能在两个月后就被新发布的模型超越。一旦通过测试验证了某款新模型在特定行业场景中,相比旧模型有明显的性能提升或成本下降,就会通过 OTA,把这个经过优化的新模型无感地推送到客户设备上。Embedding 模型、开源框架、应用功能拓展等核心组件或者功能的更新也是同样的道理。

数据驱动优化:最后,在严格遵守隐私协议、确保数据脱敏的前提下,建议收集一些匿名的系统运行状态和 API 调用数据。这些数据,可以帮助预判潜在问题,给后续的产品迭代和模型优化方向提供重要的参考。

5、Mac mini 选型指南

理论、案例和技术实现都说完了,如果决定采用这套方案,应该如何选择 Mac mini 的具体配置?这个选择关乎成本和未来扩展性。这部分我从网络、存储、核心配置三个维度,提供选型指南参考。

图片

5.1千兆网口 vs 万兆网口

Mac mini 提供了千兆和万兆两种网口选项。简单来说,万兆网口的速度是千兆的 10 倍。其中万兆网口一般是用于视频剪辑工作室、大型文件服务器等多媒体或数据密集型场景,需要配套的万兆交换机和网络环境才能发挥效果。

千兆网口理论速度约 125MB/s,对于大模型应用的 API 文本交互来说,数据量很小。瓶颈在于模型的推理速度,而不在于网络传输速度。结论是,建议选择标配的千兆网口。 选择万兆属于不必要的性能过剩,可以把这部分预算投入到更关键的内存升级上。

5.2存储(SSD)选择

存储空间的大小,直接关系到可扩展性和长期使用的稳定性。需要考虑以下几个主要占用空间的部分:

系统与应用 (约 80GB):macOS、Colima 虚拟机、Docker 镜像、应用后台等,会占用一部分固定的基础空间。

模型文件 (约 50GB):一个 30B 的 Q4 量化模型约 18GB。但实际生产中的应用策略是模型矩阵,就是可能还会预装一个 7B 模型和 1.5B 模型(约 4GB 和 1GB)和一个轻量级 Embedding 模型(约 2GB)。为未来的模型升级预留空间,按 50GB 估算。

RAG 数据(核心变量):这是最占用空间、也是最难预估的部分,主要包括源文件和把源文件处理后生成的向量索引。

对于 RAG 知识库规模不大(例如,文档总数在千份以内)、业务场景相对固定的企业,512GB 在初期是足够的。但如果客户计划把知识库作为未来几年的核心数字资产进行持续沉淀(例如,导入过去十年的所有项目文档和合同),1TB 是更明智的、一步到位的选择。

5.3并发、性能与最终推荐

并发与支持人数估算

以 10 个并发为例,实际接触下来很多企业主会误解,是否意味着只能支持 10 个人使用?我一般会举一个超市收银台的例子,可以很形象的说明。

假设一台Mac mini可以支持 10 个并发,就好比一家超市有 10 个收银台。公司可以有 200 名员工(顾客),但他们并不会在同一秒钟挤到收银台结账。大部分时间,员工都在“逛超市”(阅读大模型的回答、思考新问题、撰写文档)。

只有当员工点击“发送”按钮的那一刻,他才走到了收银台前,占用一个并发(收银台)。大模型处理和生成回答的过程,就是结账的过程,通常持续 5-30 秒。结账完成后,这个收银台就立刻空出来,为下一位顾客服务。

为了不过度复杂化,这里不展开讨论不同的应用构成的情况下,并发和员工人数之间的关系。从一般情况上来说,10 个并发足以非常流畅地支持一个 50-80 人的活跃团队日常使用。 对于绝大多数小企业来说,这是一个非常理想的配置。

配置项解读与资源估算

在京东的下单页面上,你会看到如 (M4 Pro 芯片) (14+20 核) 64G 这样的描述。其中(14+20 核)是指 14 核 CPU + 20 核 GPU。GPU 核心数是决定 AI 模型推理速度的关键。64G 是指 64GB 的统一内存。同样以 10 个并发、运行一个 30B 的 Q4 量化模型为例,进行一次内存需求估算的演示参考:

模型静态内存 (一次性加载):约 18 GB。

系统及应用基础内存:macOS、Colima 虚拟机、应用后台等,保守预留 10 GB。

KV 缓存动态内存 (并发核心):这是为每个并发用户分配的“临时记忆”。对于 30B 模型,一个中等长度的对话,单个 KV 缓存约需 2.5GB。

10 个并发所需 KV 缓存:10 人 * 2.5GB/人 = 25 GB。

总内存需求估算大约 53 GB。所以 48GB 内存会非常极限。一旦用户对话变长或并发数瞬间增多,内存就会爆掉,系统会开始使用硬盘作为虚拟内存,导致性能急剧下降,卡顿也会很明显。反之,64GB 内存是稳健的选择。超过 10GB 的缓冲空间,足以应对更长的对话或系统峰值负载。

6、商业模式和挑战展望

6.1持续性服务模式

中小企业的大模型应用落地,不应该是一次性的项目制交付,这里提供两种合作模式供参考,以适应不同企业的预算和采购习惯。

一种是产品买断式,针对需求固定、希望进行一次性资产投入的企业,提供“硬件+应用软件”的打包买断方案。另外一种更推荐的方案是硬件 + 订阅式。客户以接近成本价获得Mac mini硬件,并通过按年订阅的方式,持续享受模型更新、安全补丁、应用功能迭代和远程运维等一系列增值服务。这种模式能把客户的初始投入降至最低,也确保其大模型能力与最新技术发展保持同步。

6.2挑战与思考

这篇提出的 Mac mini 方案,只是中小企业 AI 普惠化道路上的第一步。从“能用”到“好用”还需要更多精细化打磨。比如在 Mac mini 有限的本地资源下,如何设计更智能的调度策略,让 RAG 问答、Agent 任务和后台工作流能在高并发下高效共存,是需要持续优化的课题。当然,长期来看,纯粹的本地部署或纯粹的云端部署都不是终点,未来的终极形态应该还是端云协同。这部分就不在这里展开了。

7、写在最后

中小企业不是没有 AI 需求,而是缺少合适的方案,正如 20 年前的用友和金蝶普及了 ERP,Mac mini 代表了一种AI普惠的新可能:高性能、低功耗、易维护。而开箱即用+订阅服务也可能是最适合的商业模式。

正如任何有价值的技术实践一样,从知道到做到,中间隔着无数的细节、经验和坑。AI 普惠的时代已经到来,但行动永远是拉开差距的关键。如果希望实际动手实现这套方案,或者你希望在企业 AI 落地的过程中,获得更深入的指导和交流,欢迎加入我的知识星球社群。从 3 月份到现在,目前已经有 210 多名正式成员加入。我一直觉得知识星球最大的价值,不在于是一个卖资料的地方,付费内容的作用更多是互相筛选成员,也是构建高质量的交流社群的基础所在。

星球目前已经沉淀了 250+讨论帖子和 63 期源码包案例。从这个月开始,除了提供答疑和最新的最佳实践分享外,我会开始录制详细的实操视频教程,并且定期组织线上直播,邀请圈内大佬交流一线观察。

相关资讯

调查发现,AI工具引入加剧管理层与员工之间的矛盾

近期,企业 AI 初创公司 Writer 发布的一项研究显示,随着人工智能(AI)在职场的推广,管理层与员工之间的矛盾愈发突出。 调查结果显示,近一半的高管认为,AI 正在 “撕裂” 他们的公司,而这种分歧也表现在高管和员工对 AI 工具的使用意愿上。 调查中,94% 的 C 级高管表示对当前的 AI 解决方案不满意,而72% 的高管承认,在 AI 的应用中,他们的公司面临着 “至少一个挑战”。
3/24/2025 3:11:00 PM
AI在线

人工智能热潮遭遇现实冷风:企业应用量下降,盈利能力堪忧

尽管人工智能(AI)在资本市场依然炙手可热,但来自现实世界的数据却显示出降温迹象。 美国人口普查局最新的双周调查显示,企业对人工智能的使用量出现了自2023年11月该调查启动以来的最大降幅。 企业AI采用率普遍下滑调查数据涵盖了美国超过120万家公司,结果显示,员工人数超过250人的大型企业中,AI工具的使用比例从6月中旬的近14%降至8月份的12%以下。
9/9/2025 11:15:22 AM
AI在线

蚂蚁集团 KAG:知识增强生成如何革新专业领域大模型应用?万字深入解读!

在大语言模型(LLMs)的应用浪潮中,检索增强生成(RAG)技术得到广泛运用,利用外部检索系统,显著提升大语言模型的时效性,并大幅减少模型幻觉。 为了进一步提升RAG在多跳任务、跨段落任务的性能,研究人员引入了知识图谱,包括GraphRAG、DALK、SUGRE、ToG 2.0 和 HippoRAG 等。 尽管 RAG 及其优化方案已经解决了因知识缺乏和更新导致的大部分幻觉问题,但生成的文本仍然缺乏连贯性和逻辑性,难以产生正确且有价值的答案,尤其是在法律、医学和科学等需要分析推理的专业领域:首先,真实场景的业务流程一般需要基于知识片段之间特定关系的推理来收集与回答问题相关的信息。
5/19/2025 2:50:00 PM
Goldma
  • 1