ONN
AI成像新时代,视野扩大271倍,上海理工大学开发超快卷积光学神经网络
编辑 | KX卷积神经网络(CNN)凭借其出色的图像识别能力,在人工智能领域表现出色,尤其是在 ChatGPT 等平台中。近日,上海理工大学团队成功将 CNN 概念引入光学领域,实现卷积全光神经网络,为人工智能成像技术带来了革命性的进步。研究团队开发了一种超快卷积光学神经网络(ONN),该网络无需依赖光学记忆效应,即可实现对散射介质后方物体的高效清晰成像。该神经网络利用强散射过程直接提取特征,实现无记忆图像重建,视野扩大 271 倍,计算速度达到了每秒 1.57 千万亿次运算。该研究以「Memory-less sc
7/3/2024 12:02:00 PM
ScienceAI
光芯片能否代替电子芯片?破解 AI 「算力荒」
编辑 | ScienceAI摩尔定律的描述已经非常快了——计算机芯片每两年左右就会安装两倍数量的晶体管,从而在速度和效率上产生重大飞跃。但深度学习时代的计算需求增长速度更快——这种速度可能不可持续。论文链接:,2026 年人工智能消耗的电力将是 2023 年的 10 倍,而当年的数据中心消耗的能源将相当于日本一个国家一年的能源消耗。报告链接:「人工智能所需的[计算能力]每三个月就会翻一番,速度远远快于摩尔定律的预测。」 计算硬件公司 Lightmatter 的创始人兼首席执行官 Nick Harris 表示,「这会
5/21/2024 5:20:00 PM
ScienceAI
网络规模、训练学习速度提升,清华团队在大规模光电智能计算方向取得进展
编辑 | 紫罗随着大模型等人工智能技术的突破与发展,算法复杂度剧增,对传统计算芯片带来了算力和功耗的双重挑战。近年来,以光计算为基础、通过光电融合的方式构建光电神经网络的计算处理方法已经成为国际热点研究问题,有望实现计算性能的颠覆性提升。然而,光电神经网络的前向数学模型由对光场的精准物理建模得到,计算复杂度高、参数冗余度大;其学习机制沿用人工神经网络常用的梯度下降算法,面向大规模光电神经网络时优化速度慢、资源消耗高、收敛效果差。因此,现有学习架构仅能支撑小规模光电神经网络的训练,其网络容量和特征捕获能力不足以有效处
11/27/2023 11:56:00 AM
ScienceAI
- 1
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
机器人
大模型
数据
Midjourney
开源
Meta
智能
微软
用户
AI新词
GPT
学习
技术
智能体
马斯克
Gemini
图像
Anthropic
英伟达
AI创作
训练
LLM
论文
代码
算法
Agent
AI for Science
芯片
苹果
腾讯
Stable Diffusion
Claude
蛋白质
开发者
生成式
神经网络
xAI
机器学习
3D
RAG
人形机器人
研究
AI视频
生成
大语言模型
具身智能
Sora
工具
GPU
百度
华为
计算
字节跳动
AI设计
AGI
大型语言模型
搜索
视频生成
场景
深度学习
DeepMind
架构
生成式AI
编程
视觉
Transformer
预测
AI模型
伟达
亚马逊
MCP