AI在线 AI在线

LLM

软件包幻觉:LLM可能会向粗心的开发人员提供恶意代码

大型语言模型倾向于“虚构”不存在的代码包,这可能会成为一种新型供应链攻击的基础,这种攻击被赛斯·拉森(Seth Larson,Python软件基金会的驻场安全开发人员)称为“slopsquatting”。 一种已知现象如今,许多软件开发人员使用大型语言模型(LLM)来辅助编程,然而,不幸的是,LLM在回答各种话题的问题时,会编造事实并自信地呈现出来,这一已知倾向也延伸到了编码领域。 这种情况已为人所知一段时间了。
4/16/2025 7:02:00 AM
Zeljka

Dify+MCP: 泵类设备的预测性维护案例 (升级版 )

上篇文章中,给大家分享了一个使用 Dify RAGFlow 实现的泵类设备的预测性维护案例,过去两天里有很多盆友在后台私信我了一些实现细节,比如:HTTP 请求的数据存在哪里? IoT 平台的数据能否直接实时“流”入 Dify? 以及如何使用 MCP 的方案实现四个数据源(IoT, CMMS, MES, ERP)的智能查询。
4/14/2025 12:40:00 AM
韦东东

"是我创造了第一个LLM"!Kaggle前首席科学家一句话引发AI学术圈考古行动

论如何在技术圈争论中一句话噎到对方:哥们,是我创造了第一个大语言模型。 发言者Jeremy Howard为澳大利亚昆士兰大学名誉教授、曾任Kaggle创始总裁和首席科学家,现answer.ai与fast.ai创始人,。 事情的起因是有人质疑他最近的项目llms.txt在帮助大模型爬取互联网信息上并没太大作用,从而引发了这段争论,迅速引起众人围观。
4/9/2025 9:23:00 AM
量子位

Ollama与vLLM部署对比:哪个更合适?

Ollama:简单易用的LLM部署工具 Ollama以其简洁的安装和易于使用的特性而闻名。 其官方文档清晰易懂,即使是新手也能快速上手。 Ollama支持多种LLM模型,并提供便捷的命令行界面进行管理和运行。
4/9/2025 8:20:00 AM
耗子

大语言模型(LLM)是如何思考的?讲讲推动下一代人工智能推理的五种途径

译者 | 张哲刚审校 | 重楼大语言模型(LLMs)最早时期只是具备自动完成的功能,迄今为止,进步巨大,与当初已经不可同日而语。 然而,仅仅是生成流畅的文本并不足以体现真正的智能——真正的智能是需要推理能力的。 这意味着,大语言模型需要能够解决数学问题、能够调试代码、能够得出合乎逻辑的结论,还要能够检查和改正自身的错误。
4/8/2025 8:18:38 AM
张哲刚

大模型部署工具 Ollama 使用指南:技巧与问题解决全攻略

一、Ollama 是什么? Ollama 是一个开源的本地大模型部署工具,旨在简化大型语言模型(LLM)的运行和管理。 通过简单命令,用户可以在消费级设备上快速启动和运行开源模型(如 Llama、DeepSeek 等),无需复杂配置。
4/8/2025 3:22:00 AM
wayn

LLM幻觉,竟因知识「以大欺小」!华人团队祭出对数线性定律与CoDA策略

大语言模型(LLMs)已经彻底改变了AI,但「幻觉」问题如影随从,堪称LLM癌症。 LLM会一本正经、义正辞严的捏造事实,「脸不红,心不跳」地说谎。 「幻觉」被普遍认为与训练数据相关。
4/8/2025 2:22:00 AM
新智元

AI也有人格面具,竟会讨好人类?大模型的「小心思」正在影响人类判断

你是否想过,LLM也有着自己的小心思? 最新研究揭示了一个有趣的现象:LLM在被研究人员测试时,会有意识地改变自己的行为。 在面对那些旨在评估人格特质的问题时,它们给出的答案会尽可能地讨人喜欢,符合社会期望。
4/7/2025 9:31:00 AM
新智元

LLM「想太多」有救了!高效推理让大模型思考过程更精简

LLM的推理能力显著增强,然而,这个「超级大脑」也有自己的烦恼。 有时候回答会绕好大一个圈子,推理过程冗长又复杂,虽能得出正确答案,但耗费了不少时间和计算资源。 比如问它「2加3等于多少」,它可能会从数字的概念、加法原理开始,洋洋洒洒说上一大通,这在实际应用中可太影响效率啦。
4/7/2025 9:23:00 AM
新智元

GenAI红队:将LLM置于网络安全测试中的技巧和技术

译者 | 晶颜审校 | 重楼从头构建一个GenAI红队,或者让现有的红队适应新技术是一个复杂的过程,OWASP在其最新指南中帮助阐释了这一过程。 红队是测试和支持网络安全系统的一种有效方法,但它仍需适应技术的发展而不断完善。 近年来,生成式人工智能(GenAI)和大型语言模型(LLM)的爆炸式增长正迫使红队世界适应。
4/7/2025 8:33:49 AM
晶颜

一文掌握 MCP 上下文协议:从理论到实践

MCP模型上下文协议(Model Context Protocol,简称 MCP)是一种开放标准,旨在标准化大型语言模型(LLM)与外部数据源和工具之间的交互方式。 由 Anthropic 于 2024 年 11 月推出,MCP 通过定义统一的接口,使 AI 应用能够安全、灵活地访问和操作本地及远程数据资源,提升模型的功能性和可扩展性。 图片Transports(传输层)在 MCP 协议中,传输层提供了客户端与服务器之间通信的基础,其负责处理消息的发送与接收的底层机制。
4/7/2025 5:01:00 AM
陈明勇

75年后,图灵测试终被GPT-4.5破解!73%人类被骗过,彻底输给AI

什么? AI竟然通过了标准的三方图灵测试,而且还是拿出了实打实证据的那种! 来自加州大学圣迭戈分校的研究人员系统评估了4个AI系统,证明大语言模型(LLM)通过了图灵测试。
4/3/2025 10:00:52 AM
新智元

超实用!Prompt程序员使用指南,大模型各角色代码实战案例

提示词(Prompt)是输入给大模型(LLM)的文本指令,用于明确地告诉大模型你想要解决的问题或完成的任务,也是大语言模型理解用户需求并生成准确答案的基础。 因此 prompt 使用的好坏,直接决定了大模型生成结果的质量(是否符合预期)。 图片Prompt 基本使用为了让大模型生成更符合预期的结果,我们在使用 Prompt 时,可以使用以下模版。
4/3/2025 12:00:00 AM
磊哥

从零到一,用 Dify 打造 NL2SQL

近期 AI 大火,朋友圈很多都在晒成果。 我也禁不住尝试,使用Dify这一开发平台做了第一个 AI 应用。 整体感觉下来还是非常方便的,也是由于Dify的出现大大降低了构建 AI 应用的门槛,相信未来真的可以解放人的双手,让 AI 帮助我们解决更多的问题。
4/2/2025 7:30:37 AM
韩锋

大模型应用的能力分级

对大模型应用的能力分级就像给学生打分一样,能让我们更清楚它的本事有多大。 能力分级能帮我们设定目标,知道AI现在能干什么,未来还要学什么。 有了统一的分级方式,大家就能公平比较不同AI的水平,推动技术进步。
4/2/2025 1:25:00 AM
曹洪伟

RAG(八)自反思检索增强生成--Self-RAG

大语言模型具有显著的能力,但它们常常因为仅依赖于其参数化知识而产生包含事实错误的响应。 传统的检索增强生成(Retrieval-Augmented Generation, RAG)方法虽然能减少这些问题,但是存在无差别地检索和结合固定数量的段落,没有考虑检索是否必要或检索结果的相关性,都会削弱语言模型的灵活性,或者导致无益的响应生成。 现在LLM RAG(检索增强)的技术方案已成为LLM在众多应用场景的主流。
4/1/2025 9:25:09 AM
Goldma

模型上下文协议(MCP)开发实战——构建LangChain代理客户端

译者 | 朱先忠审校 | 重楼简介什么是模型上下文协议(Model Context Protocol)? 让我们深入了解MCP背后的概念。 以下是官方MCP文档对MCP的介绍:“MCP是一种开放协议,它标准化了应用程序向LLM提供上下文的方式。
4/1/2025 8:38:25 AM
朱先忠

基于DeepSeek推理的文本聚类

译者 | 李睿审校 | 重楼开发人员需要开发和理解一种新的文本聚类方法,并使用DeepSeek推理模型解释推理结果。 本文将探索大型语言模型(LLM)中的推理领域,并介绍DeepSeek这款优秀工具,它能帮助人们解释推论结果,构建能让终端用户更加信赖的机器学习系统。 在默认情况下,机器学习模型是一种黑盒,不会为决策提供开箱即用的解释(XAI)。
3/31/2025 8:28:24 AM
李睿