MLLM-SC框架
6G 还没商用,北京交大 × 帝国理工先把“语义专线”塞进边缘云——一句话让街对面那栋楼享受 VIP 带宽
AR 眼镜刚问“对面是什么楼”,后端的 MLLM-SC 框架就在 10 ms 内画出一张“语义注意力热图”:建筑轮廓被标成深红,优先级调到最高,其他背景一律降码率。 高维多模态数据不再“平均用力”,任务相关的像素、语音、坐标被语义引擎拎出来走“快车道”,无关内容自动降档,6G 空口瞬间多出 30 % 可用带宽。 这套“设备—边缘”协同系统把多模态大模型塞进边缘服务器,当用户输入图像 语音 任务请求时,提示工程 上下文学习先拆意图,再驱动双路径语义编码器——重要特征走高质量路径,次要信息进低分辨率通道;即便信道突然掉档,关键区域依旧 1080 P 保真。
11/30/2025 2:13:19 PM
AI在线
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
大模型
机器人
数据
Midjourney
AI新词
开源
Meta
微软
智能
用户
GPT
学习
技术
智能体
马斯克
Gemini
Anthropic
英伟达
图像
AI创作
训练
LLM
论文
代码
算法
AI for Science
Agent
苹果
Claude
芯片
腾讯
Stable Diffusion
蛋白质
开发者
xAI
具身智能
生成式
神经网络
机器学习
3D
RAG
人形机器人
AI视频
研究
大语言模型
百度
生成
Sora
GPU
工具
华为
计算
字节跳动
AI设计
AGI
大型语言模型
搜索
视频生成
生成式AI
场景
DeepMind
深度学习
AI模型
特斯拉
架构
MCP
Transformer
亚马逊
编程
视觉
预测