AI在线 AI在线

拆解 AgentMesh:一个可验证、可追溯的 AI 软件工厂

从"自动化"到"系统化"的范式转移大家好,我是肆〇柒,在当下AI辅助软件开发的各类工具中,单智能体(Single-Agent)系统成为主流——用户提交需求,LLM直接生成代码。 然而,这种"端到端"模式在面对复杂软件项目时暴露出根本性缺陷:上下文碎片化导致模型难以维持全局视角;角色混淆引发逻辑不一致(例如在编写代码时突然插入设计讨论);更严重的是,错误在单次生成中累积且难以修正,就像滚雪球般最终导致整个方案崩溃。 "一个单一的单体AI智能体可能难以处理整个软件项目端到端——从高层设计到调试,由于所需知识的复杂性和广度。

拆解 AgentMesh:一个可验证、可追溯的 AI 软件工厂

从"自动化"到"系统化"的范式转移

大家好,我是肆〇柒,在当下AI辅助软件开发的各类工具中,单智能体(Single-Agent)系统成为主流——用户提交需求,LLM直接生成代码。然而,这种"端到端"模式在面对复杂软件项目时暴露出根本性缺陷:上下文碎片化导致模型难以维持全局视角;角色混淆引发逻辑不一致(例如在编写代码时突然插入设计讨论);更严重的是,错误在单次生成中累积且难以修正,就像滚雪球般最终导致整个方案崩溃。"一个单一的单体AI智能体可能难以处理整个软件项目端到端——从高层设计到调试,由于所需知识的复杂性和广度。"

AgentMesh的核心创新在于其"基于工件的流水线"架构设计,这是解决多智能体协作中状态管理难题的关键。它将软件开发这一复杂流程重构为一个可编排、可监控、可验证的AI工作流。通过引入四个专业化智能体(Planner、Coder、Debugger和Reviewer)的协作机制,AgentMesh有效规避了单智能体的固有缺陷。这种设计不仅仅是技术实现,更是一种认知分工的工程哲学——将人类软件团队经过验证的工作流映射到AI系统中,通过角色专业化与结构化协作,实现了复杂任务的分解与质量保障。

关键实证发现:研究者指出,"要求GPT-4一次性完成整个待办事项应用通常会导致缺少持久化功能或未能测试边界情况,而AgentMesh的结构化流程往往能覆盖所有需求。"在待办事项应用案例中,单次提示生成的代码遗漏了文件持久化功能,而AgentMesh通过Planner的明确任务分解确保了这一关键功能的实现。这一对比实验是验证多智能体系统优势的关键证据,表明结构化工作流能够有效解决单智能体系统在复杂任务中的根本局限。

多框架对比分析:为了更清晰地理解AgentMesh的定位,我们需要将其置于更广泛的多智能体框架生态系统中:

框架

角色设计

通信机制

适用场景

核心优势

局限性

AgentMesh

聚焦开发阶段(Planner/Coder/Debugger/Reviewer)

基于工件的流水线

(计划文档→代码→修复→审查)

端到端代码开发自动化

强流程控制力

信息单向流动,状态管理清晰

固定流程设计更适合线性开发任务

ChatDev

模拟组织角色(CTO/程序员/测试员)

对话式协作

(多轮自然语言对话)

虚拟软件公司流程模拟

高度灵活的协作

对话式通信可能增加状态管理复杂度

MetaGPT

公司角色(产品经理/架构师/工程师)

标准化流程

(SOP驱动)

软件公司全流程模拟

完整的公司流程模拟

角色与技术执行可能存在脱节

AutoGPT

单一自主代理

自我分解任务

简单目标导向任务

自主规划能力

缺乏专业化分工

这种对比清晰地表明,AgentMesh的独特价值在于将角色设计紧密映射到软件开发的具体阶段,而非组织角色。这种设计确保了信息的单向流动,偶尔会有用于调试的反馈循环。这种基于工件的流水线模式特别适合需要严格遵循开发阶段的场景,避免了多智能体系统中常见的协调混乱问题。

本文将从架构设计、工程实现、当前局限性与未来演进三个维度,对AgentMesh进行解析。我们一起看看它是如何通过"工件中心"的通信模式解决多智能体协作中的状态管理难题,分析其Python实现中的Prompt工程技巧,并探讨这一框架如何为构建更鲁棒的AI软件开发系统提供"脚手架"。

架构设计:一个类人团队的AI映射

角色专业化与职责分离 (SoC)

AgentMesh的架构设计核心在于明确的角色专业化。它定义了四个高度专注的智能体,每个智能体负责软件开发流程中的一个关键阶段:

  • Planner(战略规划):作为系统的"大脑",Planner智能体负责将模糊的自然语言需求(如"构建一个带X功能的待办事项应用")转化为结构化的开发计划。它输出一个编号的任务列表,明确指定需要实现的模块、功能和测试步骤。例如,在案例研究中,Planner将待办事项应用需求分解为8个具体任务,从数据结构设计到最终测试。这种任务分解是整个系统成功的基础,它将复杂问题拆解为可管理的子问题,避免了Coder智能体因需求模糊而遗漏关键功能。
  • Coder(战术执行):作为系统的"双手",Coder智能体负责将Planner生成的每个子任务转化为实际代码。它不处理全局设计,而是专注于单一子任务的实现,如"实现添加任务功能"。关键设计点是Coder工作在子任务级别而非尝试一次性生成整个程序,这符合"分而治之"的软件工程原则。我们可以将Coder理解为一个高度专注的程序员,每次只编写一个函数或模块,而不是试图写出整个应用程序。
  • Debugger(质量保障):作为系统的"质检员",Debugger智能体在Coder生成代码后立即介入,执行测试、诊断错误并迭代修复。它通过在沙箱环境中运行代码捕获运行时错误,并利用LLM分析错误原因(如阅读错误回溯或识别逻辑错误),然后提出修复方案。在案例研究中,Debugger成功识别并修复了索引越界和文件不存在等错误。这种即时反馈机制是AgentMesh区别于单智能体系统的关键——它创建了一个自我修正的闭环,而非依赖一次性完美输出。深度案例解析:在待办事项应用的开发中,Coder最初实现的mark_done(index)函数直接使用tasks[index],而没有将用户输入的1-based索引转换为0-based。Debugger通过模拟场景(添加两个任务后调用mark_done(1))发现它实际标记了第二个任务完成。Debugger的LLM分析识别出问题并修改为tasks[index-1],同时添加了边界检查。这种自动化错误检测与修复循环正是AgentMesh区别于单智能体系统的核心优势。同样,当Coder生成的load_tasks首次运行(无保存文件时)抛出FileNotFoundError,Debugger捕获此异常并促使LLM修复:添加try/except块处理文件不存在的情况,并确保正确处理换行符。修复后的代码展示了真实世界错误处理,这在单次生成中常常被忽略。
  • Reviewer(系统治理):作为系统的"把关人",Reviewer智能体在所有开发完成后对集成代码库进行全局审查。它验证需求符合性,检查代码质量(可读性、效率、可维护性),并识别潜在问题(如边界情况或安全漏洞)。Reviewer提供了一个全局视角,确保即使每个组件都正确,整体系统也能满足用户意图。在案例研究中,Reviewer指出了分号作为分隔符可能带来的潜在问题,展现了超越单元测试的系统级思考。

这种角色设计并非追求"最小完备集",而是明确映射了典型软件开发团队的工作流。对比MetaGPT的"公司角色"(产品经理、架构师、工程师)和ChatDev的"瀑布式对话",AgentMesh的"流水线"模式通过固定的执行顺序(规划→编码→调试→审查)实现了更高的流程控制力与可预测性。

关键差异化优势:与ChatDev的对话式协作不同,AgentMesh采用基于工件的流水线模式——Planner输出计划文档作为Coder的输入,Coder生成代码作为Debugger的输入。这种设计减少了状态混乱风险,因为"工件作为持久共享内存,降低了在执行链中丢失状态的风险"。此外,AgentMesh的角色设计更贴近软件开发的具体阶段,而非组织角色(如MetaGPT的"产品经理、架构师、工程师"),使其更适合端到端开发自动化,而非模拟公司流程。这种聚焦于开发阶段的设计使AgentMesh在技术执行层面更加精准有效。

通信与状态管理:基于"工件"(Artifact) 的黑板架构

AgentMesh的通信机制采用了基于工件的黑板架构(Artifact-Centric Blackboard Architecture),这是其设计中最精妙的部分之一。系统通过共享的计划文档代码文件审查报告作为唯一的通信媒介和状态存储,实现了智能体间的强解耦。

具体而言:

  • Planner产出计划文档,作为Coder的输入
  • Coder生成代码文件,作为Debugger的输入
  • Debugger修改代码文件,更新共享状态
  • Reviewer读取最终代码库,生成审查报告

这种"工件中心"模式与ChatDev等系统的"对话中心"模式形成鲜明对比。在ChatDev中,智能体通过多轮自然语言对话协作,虽然灵活但容易导致状态混乱;而AgentMesh通过将状态显式编码在工件中,确保了交互的可追溯性——所有决策和变更都体现在可检查的文档和代码中。

在这里,"黑板架构"可以理解为一个共享白板:每个智能体在白板上留下自己的"笔记"(计划、代码、修复),后续智能体基于这些笔记继续工作,而不是通过口头交流传递信息。这种设计有三大优势:

1. 强解耦:智能体只需关注当前工件,无需理解其他智能体的内部逻辑或对话历史

2. 可追溯性:所有决策和变更都体现在工件中,便于调试和分析

3. 降低LLM上下文压力:每个智能体只需处理当前工件,避免了在单次调用中加载全部对话历史

在实现层面,AgentMesh使用一个简单的内存文件系统作为共享状态:"本质上是一个Python字典,键是文件名(如'main.py'、'utils.py'),值是最新代码内容。"这个设计不仅管理代码,还允许Planner添加非代码工件(如设计大纲或TODO列表)。当Coder或Debugger生成新代码时,协调器更新共享状态,确保后续任务能看到之前生成的代码——例如,Coder在实现新功能时可以参考已有的函数签名。

这种基于工件的通信机制是AgentMesh解决多智能体协作状态管理问题的核心创新。这种基于工件的通信(与自然语言的直接智能体间消息传递相比)对于流水线式任务是一种简单有效的策略。它降低了状态跟踪丢失的风险,因为代码和计划文档代表了持久的共享内存。这种设计确保了信息的单向流动,使整个工作流具有高度的可预测性和可管理性。

沙箱执行的安全实现:Debugger的代码执行环境采用了多层次的安全措施:

  • 使用Python的exec()函数在受控环境中执行代码
  • 通过禁用危险内置函数(如os.system、eval等)限制潜在风险
  • 采用带超时限制的子进程运行,防止无限循环
  • 对于研究原型,系统采用手动监控方式,但生产系统需要更严格的沙箱(可使用容器或安全环境)

工程实现:Python中的AI工作流引擎

模块化实现:智能体作为"LLM+Prompt"的封装

AgentMesh的工程实现体现了高度的模块化思想。每个智能体(PlannerAgent、CoderAgent等)都被实现为一个独立的Python类,封装了其角色特定的提示(Prompt)和LLM调用逻辑。这种设计遵循了关注点分离原则,使得系统核心逻辑(工作流编排)与智能体的具体实现相分离。

关键代码结构如下:

复制

run(input) 方法定义了统一接口,允许系统以一致方式调用不同智能体。我们可以将每个智能体视为一个"黑盒":输入特定数据,经过内部处理(LLM调用+Prompt工程),输出符合角色期望的结果。

精确的Prompt Engineering是系统可靠性的基石。通过在提示中约束输出格式(例如,'以编号列表形式响应任务')对于可靠地将Planner的输出解析为Python任务列表至关重要。例如:

  • Coder被明确指示"仅返回代码"(we instruct it not to include explanations),确保project_code字典可以无歧义地更新
  • Planner被要求输出编号列表,便于解析为Python列表
  • Debugger被要求"仅提供修正后的代码",防止引入额外文本

这些看似简单的约束,实则是自动化工作流的关键——它们将LLM的非结构化输出转化为可编程处理的结构化数据,使整个系统能够自动运行而无需人工干预。

Prompt工程的迭代智慧:成功的Prompt设计需要精确约束输出格式,并经过迭代优化。调整它们是一个迭代过程;例如,Coder的提示需要阻止它解决不相关的任务或重复代码,而Debugger的提示必须引导它进行最小修复而非彻底重构整个代码。"使用"单样本示例(one-shot examples)可以进一步提高可靠性。例如,Debugger的提示中包含一个具体错误和修复示例,能显著提高其修复质量。这种迭代式Prompt优化是构建可靠多智能体系统的关键工程实践。

编排逻辑:从顺序流水线到未来可扩展的DAG

AgentMesh的核心编排逻辑体现在其顺序流水线设计中。以下伪代码清晰展示了这一工作流:

复制

这个简单的循环实现了复杂的协作逻辑:

1. 规划阶段:Planner生成任务列表

2. 编码阶段:Coder为每个子任务生成代码

3. 调试阶段:Debugger立即验证并修复新生成的代码

4. 审查阶段:Reviewer检查最终代码库

特别值得注意的是迭代式调试循环的设计。DebuggerAgent.run()内部实现了do-until-success的测试-修复循环,但论文中也坦诚地讨论了其防无限循环的实践:"我们学会了让Debugger清楚地表明是否认为无需更改(以避免它不断重新提交相同代码而导致的无限循环)。我们还添加了简单的启发式方法:如果Debugger连续两次生成相同的代码,则中断循环..."这种对LLM非确定性的务实处理,体现了工程实现中的智慧。

另一个关键实现是沙箱执行机制。Debugger通过实际运行代码来验证其正确性,使用Python的exec()函数或在带有超时限制的子进程中运行,并采取了禁用危险内置函数等措施降低安全风险。在研究原型环境中,研究者手动观察此过程,但生产系统需要更严格的沙箱(可能使用容器或安全环境)。这种安全与功能的权衡是AI代码执行系统的关键挑战。

内存文件系统实现:AgentMesh的核心状态管理依赖于一个精简的内存文件系统:

复制

这种设计既简单又有效,避免了在LLM上下文中累积过多历史信息,同时保持了状态的持久性。

Prompt设计的工程智慧

AgentMesh的Prompt设计体现了对LLM行为的深刻理解,是系统成功的关键。让我们分析几个典型例子:

Planner Prompt:

复制

这个Prompt的精妙之处在于:

  • 明确的角色设定("software planning assistant")防止角色混淆
  • 指令精确限定输出格式("numbered list")
  • 要求包含设计、实现和测试步骤,确保全面性
  • "Be thorough but concise"平衡了详细程度与冗余

Debugger Prompt:

复制

这个Prompt的关键设计点:

  • 明确要求"仅提供修正后的代码",防止引入额外文本
  • 提供错误上下文(错误回溯或测试输出),使LLM能准确定位问题
  • 角色设定确保Debugger专注于诊断和修复,而非重新设计

角色扮演(Role-Playing)提示是AgentMesh防止角色混淆的核心手段。每个智能体都被赋予明确的系统角色(如"You are a senior Python developer"),这确保了Coder不会输出设计文档,Planner也不会尝试写代码。通过为每个角色创建强大的系统提示,这个目的是模拟遵循方法论的协调团队的行为。

这种Prompt engineering不仅是技术细节,更是一种认知边界设定——它为每个LLM智能体划定了清晰的能力范围,防止它们越界执行不合适的任务,从而维护了整个系统的结构化协作。

当前局限性与未来演进

当前系统的根本局限性

尽管AgentMesh展示了多智能体协作的潜力,它也具有一些局限性,这些限制反映了多智能体AI系统面临的普遍挑战:

错误传播(Error Propagation) 是多智能体系统固有的挑战。AgentMesh的质量高度依赖LLM的初始输出:"如果Planner产生一个糟糕的计划(例如,遗漏关键子任务或误解需求),其余过程将受到影响。"在实验中,研究者确实遇到了计划不完整的情况,导致最终软件缺少功能,直到重新表述请求或人工干预。这种级联故障是多智能体系统的固有风险——单个智能体的错误可能污染整个工作流。

LLM幻觉与不一致性 也是主要挑战。LLM倾向于"幻觉"或产生看似合理但不正确的信息。在多智能体环境中,这可能导致智能体输出相互不一致。例如,Planner可能建议一个不必要的模块,或引用Coder从未实现的函数。清晰、受约束的提示减少了这个问题,拥有作为事实来源的共享状态(计划和代码)有助于使智能体保持一致。但无法完全消除这一风险。

上下文窗口与可扩展性 限制了系统处理大型项目的能力。每个智能体的操作受LLM上下文窗口限制(GPT-4为8K或32K tokens)。对于小型项目,这足够了,但对于更大的代码库,在一次调用中让Reviewer阅读所有代码变得具有挑战性。线性流水线意味着成本(token和时间)大致与子任务数量乘以每个智能体的LLM调用成本成正比,复杂项目可能需要数十个子任务和大型代码文件,可能达到上下文限制或产生高计算成本。

领域适应性挑战 是另一个关键限制。当前实现针对Python脚本任务进行了调整。如果被要求执行非常不同的软件任务(例如,具有复杂UI的前端Web开发或使用不同语言编程),智能体可能需要重新配置。Planner必须了解相关子任务(对于Web应用与CLI应用可能不同),而Coder需要目标语言的专业知识。虽然GPT-4很通用,但需要提示调整来引导它。例如,设计UI时如果智能体能使用图形工具或检索HTML/CSS模板会更容易,但当前系统缺乏这种外部工具集成能力

工具集成局限 进一步限制了系统能力:"如果解决子任务的最佳方法是调用外部API或搜索文档,我们的智能体不会这样做——它们仅依赖LLM中嵌入的知识(对于特定库可能已过时或有限)。"这种缺乏外部工具集成的能力,使得AgentMesh在处理需要实时文档查询或API调用的复杂任务时面临挑战。

缺乏学习或适应能力 是另一个关键限制。AgentMesh不具备长期记忆:"目前,AgentMesh不会从一个项目学习到下一个项目;除了提示中编码的内容外,它没有关于什么有效或失败的长期记忆。"每次运行都从零开始,无法从过去经验中优化策略。相比之下,人类团队会随着时间改进策略,而当前系统无法动态调整其方法。

评估与保证的缺失 是一个关键局限。尽管有多重检查(测试和审查),但无法保证生成软件的正确性、完整性和安全性。如果测试不全面(它们很少全面),程序可能在未经测试的场景中失败。这提醒我们:AI生成的代码仍需人工审查,特别是在安全关键场景中。

实用定位的明确性:从用户角度看,评估输出可能具有挑战性——如果用户能轻松判断代码是否正确,他们可能不需要完全自动化。因此,实际上我们将AgentMesh视为人类开发者的助手,而非完全自主的替代品。它可以起草一个解决方案,然后由开发者审查(这比从头开始编写更容易)。AgentMesh的目标不是取代开发者,而是将开发者的角色从"代码编写者"转变为"质量保证者",使其能够专注于更高层次的设计决策。

未来演进路径

技术增强方向

记忆与检索增强 是解决上下文窗口瓶颈的关键。未来迭代中,我们可以使用向量数据库或基于嵌入的记忆,允许智能体在需要时检索项目早期的相关信息,而无需在提示中总是重述整个代码库。这种检索增强生成(RAG)方法可以让Reviewer等智能体只加载相关代码片段,而非整个代码库,显著提升可扩展性。

动态编排 代表了工作流管理的下一个前沿。一个令人兴奋的方向是使编排可学习。"与其使用固定脚本按相同顺序调用智能体,不如使用强化学习或进化策略训练一个元控制器(meta-controller),以动态决定下一个调用哪个智能体或如何在智能体之间分配任务。这种动态调整可以通过缩短推理路径和减少冗余步骤来提高效率。

人机交互增强

增强工具集成 将极大扩展系统能力。包括:

1. 测试智能体:可以使用基于属性的测试库(如Hypothesis)自动生成测试用例,覆盖更多边界情况。比如,如何让智能体理解何时需要额外测试,以及如何将测试结果转化为可操作的反馈。这可以大幅提升测试覆盖率,减少漏网之鱼

2. 静态分析集成:Debugger可以连接静态分析工具(如Python的pylint或mypy),主动修复风格或类型问题。比如,当pylint报告"function-too-complex"警告时,Debugger可以自动重构函数。这需要设计智能体与工具的交互协议,确保工具输出能被LLM有效理解。

3. 设计模式库:Planner可以访问设计模式库或项目管理模板,做出更明智的计划。通过向量数据库存储常见模式,Planner在任务分解时检索相关参考。这可以生成更符合行业最佳实践的架构设计

4. 文档检索:当涉及特定库时,智能体可以自动搜索最新文档。比如,如果任务涉及Pandas库,智能体可检索pandas.pydata.org的最新API。当然,这需要确保检索到的信息准确且与当前LLM知识互补

每个集成都会带来新的问题——智能体如何决定何时以及如何使用工具——这正是"ReAct范式"(推理和使用工具)可以在多智能体环境中应用的领域。

人机协作界面 是实用化的关键。这可以设想一种模式,AgentMesh与开发者交互式协作:Planner可以提交计划草案并要求用户确认或调整后再继续。这种人在环路(Human-in-the-loop)设计将AI的速度与人类的判断相结合,特别适合模糊需求或关键决策场景。

具体人机协作场景

1. 计划确认场景

  • Planner生成任务列表后,系统暂停并呈现给开发者
  • 开发者可以:确认计划、调整任务顺序、添加/删除任务
  • 系统记录反馈并继续后续流程
  • 价值:在早期捕捉需求误解,避免后续返工

2. 模糊需求澄清场景

  •    当Planner检测到需求不明确时(如"创建一个用户友好的界面")

  •    系统自动向开发者提出澄清问题:"您希望界面是命令行还是图形界面?需要支持哪些平台?"

  •    开发者提供额外信息后,Planner重新生成计划

  •    价值:解决LLM对模糊表述的过度解读问题

  1.    关键决策点介入

  •    在架构决策点(如选择数据存储方案),系统暂停并提供选项

  •    开发者选择偏好方案,系统基于此继续

  •    示例:对于待办事项应用,系统可能提供"文件存储"vs"SQLite"选项

  •    价值:确保技术选型符合项目约束

这种人机协作模式将AgentMesh从"完全自动化"转变为"智能助手",更符合实际开发工作流。这种人在环路设计将AI的速度与人类的判断相结合,特别适合模糊需求或关键决策场景。

总结:AgentMesh作为AI工程的"脚手架"

AgentMesh 是一种将复杂软件开发重构为可编排AI工作流的工程范式。其模块化、基于工件、职责分离的设计思想,有效解决了单智能体在复杂任务中的根本局限。通过将人类软件团队经过验证的工作流映射到AI系统中,AgentMesh展示了如何通过结构化协作提升AI系统的可靠性和可维护性。

这项工作为软件工程领域中的结构化LLM编排提供了示例,表明智能体工作流可以利用LLM的优势(生成和推理代码),同时弥补其弱点(如果不检查,容易出错)。AgentMesh不仅是一个工具,更是一种认知分工的工程哲学,它证明了通过结构化协作,多智能体系统可以超越单智能体的局限,为构建更通用的AI软件开发者提供了"脚手架"。它作为一个测试平台,用于研究多个AI智能体如何通过共享工件(代码)进行通信,以及在实现复杂目标时这种交互的动态性。

AgentMesh 的研究是迈向"更通用的AI软件开发者"和"智能编码流水线"的重要一步。它为构建更鲁棒、可扩展的多智能体系统提供了宝贵的"脚手架"。在AI辅助软件开发的演进中,AgentMesh代表了一个关键范式转变:从追求单次完美输出,到构建可迭代、可验证、可协作的AI工作流系统。这一转变,或许正是AI真正融入软件工程实践的关键所在。

最后我想说,AgentMesh 为我们提供了一个理解多智能体系统设计的优秀案例:角色专业化如何解决复杂问题,工件中心通信如何管理状态,以及Prompt工程如何塑造智能体行为。对于资深工程师,其工程实现中的细节,如防无限循环的启发式方法、沙箱执行的安全考量、精确的输出格式约束等,这些都体现了将LLM集成到生产系统所需的务实经验。这样的思想并不局限于在软件工程领域,它很具有现实Agent 落地的借鉴意义!

相关资讯

哥德尔90年前的「不完备性定理」,奠定了计算机与AI的理论基础

大神早已远去,而他的光芒仍在人间。
6/18/2021 2:19:00 PM
机器之心

美国最高法院最终裁定:维持TikTok禁令,特朗普发帖回应:意料之中应该尊重,但是否执行有待时间考虑,周受资或出席特朗普就职典礼

美最高法院最后裁定结果出来了:维持 TikTok 禁令。 美东时间,本周五,最高法院一致决定站在拜登政府一边,维持拜登总统今年 4 月 签署的《保护美国人免受外国对手控制应用法案》 。 最高法院的意见称:“毫无疑问,对于超过 1.7 亿美国人来说,TikTok 提供了一个独特而广阔的表达渠道、参与方式和社区来源。
1/18/2025 4:35:41 PM
51CTO技术栈

「完美的搜索引擎」是否存在?这家公司向谷歌发起挑战

你需要一群拒绝接受现状的人,并为之努力多年,直到一个抽象的愿景变为现实,即使其他人都不理解。 你每天都在用的搜索引擎,可能并不完美。 大型语言模型(LLMs)能够解决研究生水平的数学问题,但今天的搜索引擎却无法准确理解一个简单的三词短语。
1/18/2025 6:35:00 PM
机器之心
  • 1