闪存
“史上最快闪存技术”登Nature!复旦新成果突破闪存速度理论极限,每秒执行操作2500000000次
史上最快的闪存器件,复旦团队造! 其研发的皮秒闪存器件“破晓(PoX)”登上了Nature,擦写速度达到了亚纳秒级,比现有速度快1万倍。 并且数据不易丢失,按照实验外推结果,保存年限可达十年以上。
4/23/2025 9:41:27 AM
复旦团队国际首次验证超快闪存集成工艺:20 纳秒超快编程、10 年非易失
感谢据复旦大学官方今日消息,人工智能的飞速发展迫切需要高速非易失存储技术。当前主流非易失闪存的编程速度在百微秒级,无法支撑应用需求。复旦大学周鹏-刘春森团队前期研究表明二维半导体结构能够将速度提升一千倍以上,实现颠覆性的纳秒级超快存储闪存。然而,如何实现规模集成、走向实际应用极具挑战。从界面工程出发,复旦大学团队在国际上首次验证了 1Kb 超快闪存阵列集成验证,并证明了超快特性可延伸至亚 10 纳米尺度。北京时间 8 月 12 日下午 5 点,相关成果以《二维超快闪存的规模集成工艺》(“A scalable int
8/13/2024 12:55:11 PM
汪淼
CPU推理提升4到5倍,苹果用闪存加速大模型推理,Siri 2.0要来了?
苹果这项新工作将为未来 iPhone 加入大模型的能力带来无限想象力。近年来,GPT-3、OPT 和 PaLM 等大型语言模型(LLM)在广泛的 NLP 任务中表现出了强大的性能。不过,这些能力伴随着大量计算和内存推理需求,毕竟大型语言模型可能包含数千亿甚至万亿参数,使得高效加载和运行变得有挑战性,尤其是在资源有限的设备上。当前标准的应对方案是将整个模型加载到 DRAM 中进行推理,然而这种做法严重限制了可以运行的最大模型尺寸。举个例子,70 亿参数的模型需要 14GB 以上的内存才能加载半精度浮点格式的参数,这超
12/25/2023 2:40:00 PM
机器之心
- 1
资讯热榜
标签云
人工智能
AI
OpenAI
AIGC
模型
ChatGPT
DeepSeek
AI绘画
谷歌
机器人
数据
大模型
Midjourney
开源
智能
用户
Meta
微软
GPT
学习
技术
图像
Gemini
AI创作
马斯克
论文
智能体
Anthropic
英伟达
代码
算法
训练
Stable Diffusion
芯片
蛋白质
开发者
腾讯
生成式
LLM
苹果
Claude
神经网络
AI新词
3D
研究
机器学习
生成
AI for Science
Agent
xAI
计算
人形机器人
Sora
AI视频
GPU
AI设计
百度
华为
搜索
大语言模型
工具
场景
字节跳动
具身智能
RAG
大型语言模型
预测
深度学习
伟达
视觉
Transformer
AGI
视频生成
神器推荐
亚马逊
Copilot
DeepMind
架构
模态
应用