UPFT
腾讯携手创新“无监督前缀微调”技术:训练 tokens 最多减少 95%,提升 AI 推理效率
腾讯AI Lab与香港中文大学合作,提出“无监督前缀微调”(UPFT)方法,通过聚焦模型输出的前8至32个词元,显著提升大型语言模型的推理效率。该方法在多个推理基准测试中表现优异,减少训练和推理词元的同时提升准确率。#腾讯AI #语言模型 #UPFT
3/2/2025 3:07:16 PM
故渊
- 1
资讯热榜
标签云
人工智能
AI
OpenAI
AIGC
ChatGPT
DeepSeek
AI绘画
模型
数据
机器人
谷歌
大模型
Midjourney
智能
用户
开源
微软
学习
GPT
Meta
图像
AI创作
技术
Gemini
论文
马斯克
Stable Diffusion
算法
芯片
代码
生成式
蛋白质
英伟达
腾讯
神经网络
开发者
研究
Anthropic
3D
计算
Sora
机器学习
AI设计
AI for Science
GPU
AI视频
苹果
场景
华为
百度
人形机器人
预测
搜索
Claude
伟达
训练
生成
深度学习
xAI
Transformer
大语言模型
字节跳动
模态
具身智能
文本
驾驶
智能体
神器推荐
Copilot
LLaMA
视觉
算力
安全
应用
视频生成
干货合集
API
大型语言模型
亚马逊
科技