LLM
迄今为止最大最全面!人类专家级准确性,AI数据驱动的生物医学知识图谱
编辑 | 萝卜皮为了应对生物医学研究中科学出版物和数据的快速增长,知识图谱(KG)已成为整合大量异构数据以实现高效信息检索和自动知识发现的重要工具。 然而,将非结构化的科学文献转化为知识图谱仍然是一项艰巨的挑战,之前的方法无法达到人类水平的准确率。 在最新的研究中,佛罗里达州立大学(Florida State University)和 Insilicom LLC 的研究人员使用了在 LitCoin 自然语言处理挑战赛 (2022) 中获得第一名的信息提取流程,利用所有 PubMed 摘要构建了一个名为 iKraph 的大规模知识图谱。
3/20/2025 2:08:00 PM
ScienceAI
免费托管Khoj:你的个人自主AI应用程序
译者 | 布加迪审校 | 重楼Khoj是你的AI第二大脑,旨在增强大语言模型(LLM)的能力。 它便于你构建自定义代理、调度自动化以及进行深入研究。 有了Khoj,你可以把任何在线或本地托管的LLM变成个人的自主AI助手,并确保隐私和安全。
3/20/2025 9:38:50 AM
布加迪
如何绕过限制,获取 Cursor 的系统提示词
大家好,我卡颂,专注程序员AI转型。 Cursor母公司Anysphere三个月前才完成一轮 1 亿刀的融资(估值 25 亿刀),现在已经在为 100 亿刀估值进行新一轮谈判。 可见Cursor发展之迅速。
3/19/2025 9:14:15 AM
卡颂
用LLM做半导体设计,IBM&MIT提出受神经启发的LLM推理网络SOLOMON
编辑丨coisini尽管大型语言模型(LLM)擅长复杂推理,但在适应特定领域时仍面临挑战,尤其是在需要空间推理和解决结构化问题的领域。 半导体布局设计就是一个典型例子,AI 工具必须理解几何约束并确保组件的精确布局。 基于此,来自 IBM TJ 沃森研究中心和 MIT-IBM 沃森人工智能实验室的研究人员提出了一种受神经启发的 LLM 推理网络 ——SOLOMON,旨在增强领域特定的适应性。
3/18/2025 11:59:00 AM
ScienceAI
LLM核心损失函数深度剖析——KL散度与交叉熵损失
在深度学习和机器学习领域,损失函数是模型优化的核心工具之一。 它不仅决定了模型的训练方向,还直接影响模型的性能和泛化能力。 随着大语言模型(LLM)的兴起,对损失函数的理解和应用变得更加重要。
3/18/2025 10:28:32 AM
Goldma
有望重新定义语言生成技术的扩散模型——LLaDA
译者 | 朱先忠审校 | 重楼简介如果我们能让语言模型更像人类一样思考,结果会怎样? 如果它们不是一次写一个字,而是先勾勒出自己的想法,然后逐渐完善,结果又会怎样? 这正是大型语言扩散模型(LLaDA)所引入的:一种与大型语言模型(LLM)中当前使用的文本生成不同的方法。
3/17/2025 11:35:36 AM
朱先忠
无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血
全新检索模式:在无限长token下,大语言模型自身或能检索信息! 受大语言模型(LLM)上下文窗口大小的限制,处理输入token数超过上限的各种任务颇具挑战性,无论是简单的直接检索任务,还是复杂的多跳推理任务。 尽管新提出的各种方法用来增强大语言模型的长上下文处理能力,但这些方法痛点突出:要么会产生高昂的训练后成本,要么需要额外的工具模块(如检索增强生成RAG),要么在实际任务中显示出改进,并不明显。
3/17/2025 9:40:00 AM
新智元
人工智能代理不是玩具,而是工人
为什么必须像评估劳动力一样评估LLM代理,而不仅仅是评估软件。 如果组织仅通过代码行数或聊天完成度等指标来衡量 AI 代理,则可能会低估其最具变革性的价值。 在许多方面,AI 代理更像员工,而不是传统的软件程序:它们可以学习、适应,甚至与人类团队合作。
3/13/2025 1:29:32 PM
佚名
大型语言模型是否解决了搜索问题?
译者 | 李睿审校 | 重楼尽管LLM在内容生成方面表现出色,但需要采用语义分块和向量嵌入等技术来解决复杂数据环境中的搜索问题。 大型语言模型(LLM)的涌现推动了信息检索和人机交互的范式转变。 这些模型在大量的文本语料库上进行训练,并针对预测语言任务进行了优化,在响应查询、总结文本内容和生成上下文相关信息方面展现出了显著成效。
3/13/2025 12:09:27 PM
李睿
只需7.6% token,性能还更强!华人团队提全新「草稿链」CoD,成本延迟大降
当下,企业正处于部署AI的关键节点。 随着AI系统在企业运营中的深度融合,计算成本与响应时间成为阻碍AI广泛应用的主要瓶颈。 来自Zoom的华人研究团队取得了一项突破性成果,他们开发的「草稿链」(Chain of Draft,CoD)技术,有望从根本上改变企业大规模部署AI的模式。
3/13/2025 10:40:00 AM
新智元
L²M条件,MIT团队为长文本建模建立新理论框架
编辑 | ScienceAI在追求更强大 AI 系统的道路上,大语言模型处理长上下文的能力始终是制约其发展的关键瓶颈。 尽管 DeepSeek、GPT-4、LLaMA-3 等顶尖模型已能处理数万 token 的文本,但学界对「模型究竟需要何种能力才能有效理解长文本」这一根本问题仍缺乏理论指导。 近日,麻省理工学院 Zhuo Chen、Oriol Mayn ́e i Comas 、Zhuotao Jin 、Di Luo 、Marin Soljači 领衔的研究团队提出自然语言中隐藏的互信息缩放定律(Mutual Information Scaling Law),并由此提出长上下文语言建模的 L²M 条件(Long-context Language Modeling condition),为理解大语言模型的长文本处理能力建立了首个系统化理论框架。
3/11/2025 12:17:00 PM
ScienceAI
DeepSeek级AI?训练自己的推理模型仅需七个步骤
译者 | 布加迪审校 | 重楼谁需要超级计算机? 仅用15GB VRAM就可以训练你自己的功能强大的AI推理模型! DeepSeek的R1模型在不需要人类反馈的情况下就能进行更深思熟虑的推理,已颠覆了大语言模型(LLM)领域。
3/11/2025 8:37:42 AM
布加迪
六种LLM定制开发基本策略:提示工程、解码策略、RAG、代理、微调和RLHF
译者 | 朱先忠审校 | 重楼为什么要定制LLM? 大型语言模型是基于自监督学习预训练的深度学习模型,需要大量的训练数据资源、训练时间并保存大量参数。 尤其是在过去2年里,LLM彻底改变了自然语言处理,在理解和生成类似人类的文本方面表现出色。
3/11/2025 8:00:00 AM
朱先忠
软件行业的颠覆性革命:AI不仅吞噬一切,它就是一切
从前,软件吞噬了世界。 如今,AI来了,要消化剩下的部分。 曾经由应用程序主导、市场控制访问、平台抽取分成的计算模式正在瓦解。
3/10/2025 1:11:00 PM
Justin Westcott
手搓RAG新增功能:递归检索与迭代查询+重回成熟框架API
在上那篇提到的我手搓的那个 RAG 项目新增功能中,漏掉了递归检索与迭代查询,这篇补上(源码见知识星球)。 经过初步调试对召回效果有明显提升,这种方法解决了传统 RAG 的几个关键问题:处理复杂多步骤问题:通过多次迭代,分解复杂问题信息不足的补充:当初始检索结果不足以回答问题时,自动生成补充查询多角度信息收集:能够从不同角度收集相关信息1、递归检索具体实现递归检索函数(recursive_retrieval)(支持最多三次迭代查询)每次迭代使用混合检索(向量检索 BM25)获取信息使用 LLM 分析当前检索结果,判断是否需要进一步查询如果需要,LLM 会生成新的查询问题,用于下一轮检索换句话说,递归检索的工作原理可以理解为"先检索-后思考-再检索"的过程,模拟了人解决问题的方式:先获取一些信息,思考下是否足够,如果不够则继续查找更多相关信息。 总之,好的结果不是一蹴而就的。
3/10/2025 9:20:00 AM
韦东东
智谱携Agentic LLM参加巴塞罗那通信展
在3月3日,由华为举办的“移动AI产业峰会”上,智谱副总裁林超婷受邀发表题为《LLM – Transformative Revolution in Technology and Industry》的演讲。 林超婷指出,Agentic LLM正在改变整个手机产业,借助AI能力重新定义下一代互联网入口。 将来,Agentic AI助手,可以像人一样可以收集和总结信息,听说读写和思考,记住个人偏好等等。
3/5/2025 2:53:00 PM
新闻助手
全面增强LLM推理/规划/执行力!北航提出全新「内置CoT」思考方法
用户已经习惯于将大模型如ChatGPT、Llama-3-chat等当作聊天对象,然而在用户和聊天助手的会话中,有的用户提示(例如一些命令或请求)不能在一轮会话中结束,需要大语言模型和用户进行多轮会话。 这种跨越多轮的会话目前仍然存在一些问题:大语言模型的回答容易出错,不能帮助用户达到目标,且随着会话轮数增加出错概率会增大。 对同一个命令或问题,大语言模型比较难以根据实际需求产生不同流程的响应,在需要大语言模型与环境交互时,目前比较流行的做法是使用函数调用或工具调用,但不够优雅和高效,而且由于上下文窗口的限制,能支持的工具调用数量有限。
3/5/2025 4:00:00 AM
新智元
资讯热榜
6秒视频10秒生成!全新AI视频神器 Grok Imagine 深度体验+元提示词分享
OpenAI 为 ChatGPT 推出智能记忆清理功能,Plus 用户率先体验
AI玩拼图游戏暴涨视觉理解力,告别文本中心训练,无需标注的多模态大模型后训练范式
大的来了:谷歌Gemini 3.0 Pro单次生成网页版操作系统,Win、Mac、Linux一网打尽
「性价比王者」Claude Haiku 4.5来了,速度更快,成本仅为Sonnet 4的1/3
OpenAI官宣自研首颗芯片,AI界「M1时刻」九个月杀到!联手博通三年10GW
刚刚,OpenAI官宣自研造芯,联手博通开发10吉瓦规模的AI加速器
OpenAI与博通达成战略合作,推动AI算力革命
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
机器人
数据
大模型
Midjourney
开源
Meta
智能
微软
用户
AI新词
GPT
学习
技术
智能体
马斯克
Gemini
图像
Anthropic
英伟达
AI创作
训练
论文
LLM
代码
算法
芯片
Stable Diffusion
苹果
腾讯
AI for Science
Agent
Claude
蛋白质
开发者
生成式
神经网络
xAI
机器学习
3D
研究
人形机器人
生成
AI视频
百度
大语言模型
Sora
工具
具身智能
GPU
RAG
华为
计算
字节跳动
AI设计
搜索
大型语言模型
AGI
场景
视频生成
深度学习
架构
DeepMind
视觉
预测
伟达
Transformer
编程
AI模型
生成式AI
神器推荐
亚马逊