AI在线 AI在线

MLX-LM与Hugging Face实现无缝集成,助力Apple Silicon设备高效运行大语言模型

近日,MLX-LM现已直接集成到Hugging Face平台。 这一里程碑式的更新为Apple Silicon设备(包括M1、M2、M3和M4芯片)用户提供了前所未有的便利,使其能够以最高速度在本地运行超过4400种大型语言模型(LLM),无需依赖云服务或等待模型转换。 这一集成进一步推动了本地化AI开发的普及,为开发者和研究人员提供了更高效、灵活的工具。

近日,MLX-LM现已直接集成到Hugging Face平台。这一里程碑式的更新为Apple Silicon设备(包括M1、M2、M3和M4芯片)用户提供了前所未有的便利,使其能够以最高速度在本地运行超过4400种大型语言模型(LLM),无需依赖云服务或等待模型转换。

QQ20250520-092128.png

这一集成进一步推动了本地化AI开发的普及,为开发者和研究人员提供了更高效、灵活的工具。

MLX-LM与Hugging Face的深度融合MLX是Apple机器学习研究团队开发的一个专为Apple Silicon优化的机器学习框架,旨在充分利用M系列芯片的神经引擎(ANE)和Metal GPU的强大性能。

MLX-LM作为其子包,专注于大语言模型的训练与推理,近年来因其高效性和易用性受到广泛关注。通过与Hugging Face的集成,MLX-LM现可直接从Hugging Face Hub加载模型,无需额外的转换步骤,极大地简化了工作流程。

地址:https://huggingface.co/models?library=mlx

相关资讯

苹果MLX支持英伟达CUDA,AI开发者迎来成本与效率双重利好

苹果正在为其专为 Apple Silicon 芯片打造的机器学习框架 MLX 增添对英伟达 CUDA 的支持,这一突破性进展将为 AI 开发者提供前所未有的灵活性与成本优势。 据 Appleinsider 报道,开发者现在可以在配备 Apple Silicon 的 Mac 上使用 MLX 框架开发 AI 应用,并将代码导出至支持 CUDA 的英伟达显卡或服务器环境中运行。 这一能力的实现,意味着开发者可以在 macOS 上构建模型原型,并在部署阶段无缝迁移至英伟达平台,充分利用其强大算力。
7/16/2025 10:21:32 AM
AI在线

Apple MLX Supports NVIDIA CUDA, AI Developers Benefit from Cost and Efficiency

Apple is adding support for NVIDIA CUDA to its machine learning framework MLX, which is designed for Apple Silicon chips. This breakthrough will provide AI developers with unprecedented flexibility and cost advantages.According to Appleinsider, developers can now use the MLX framework to develop AI applications on Macs equipped with Apple Silicon and export their code to run on NVIDIA GPUs or server environments that support CUDA.
7/16/2025 4:12:01 PM
AI在线

Hugging Face 推出号称“世界上最小的视觉语言模型”SmolVLM-256M

Hugging Face 上周发布了两款全新多模态模型 SmolVLM-256M 和 SmolVLM-500M,其中 SmolVLM-256M 号称是世界上最小的视觉语言模型(Video Language Model)。
1/26/2025 8:15:50 PM
漾仔
  • 1