理论
GCD-DDPM:用扩散模型重塑变化检测,精准捕捉细粒度变化
一眼概览GCD-DDPM 提出了一种 基于差分特征引导的去噪扩散概率模型(DDPM) 进行 变化检测(CD) 的方法,采用 生成式方式 直接生成变化检测(CD)图,而非传统的判别式分类方式。 在四个高分辨率遥感数据集上,该方法展现了优越的检测性能。 核心问题目前主流变化检测(CD)方法大多依赖 CNN 或 Transformer 进行判别式特征学习,但它们在 同时捕获局部细节信息和长距离依赖关系 方面存在局限,导致 变化检测精度不足,尤其是对于 复杂场景的细粒度变化 无法精准捕捉。
3/4/2025 4:00:00 AM
萍哥学AI
告别传统 SSE!fetch-event-source 让 AI 流式处理更高效
在 AI 大模型飞速发展的时代,前端开发者面临着如何高效处理实时数据流的挑战。 服务器发送事件(SSE)作为一种单向通信协议,能够让服务器主动向客户端推送实时更新,广泛应用于实时聊天、新闻推送等场景。 然而,标准的 EventSource API 存在诸多限制,例如只能使用 GET 请求、无法传递请求体等。
3/4/2025 3:00:00 AM
PIG AI
23个超强的DeepSeek提示词指令,一看就懂
给大家分享几个超强的DeepSeek提示词,大家也可以模仿提示词的结构去书写自己需要的DeepSeek指令。 文中[...]内的只是示例,大家可以根据自己实际需求进行替换。 一、知识管理类请用康奈尔笔记法整理[会议记录/课程内容],左侧提炼关键词,右侧记录案例证据,底部总结行动要点,最后将知识关联绘制成概念网络图。
3/4/2025 2:00:00 AM
丶平凡世界
LLM 大语言模型定义以及关键技术术语认知
大语言模型定义LLM(Large Language Models)是基于 Transformer 架构(可以理解为不同寻常的大脑)的深度神经网络,通过海量文本数据训练获得语言理解和生成能力。 其核心特征包括:参数规模达数十亿级别(GPT-3 175B参数)知识储备惊人,可以理解为脑细胞数量是普通人的千亿倍(1750亿参数),相当于把整个图书馆的书都装进大脑自回归生成机制(逐词预测)说话方式像接龙,当它写作文时,就像我们玩词语接龙:先写"今天",然后根据"今天"想"天气",接着根据"今天天气"想"晴朗",逐字逐句生成内容。 注意力机制实现长程依赖建模特别会抓重点就像我们读小说时,会自动记住关键人物关系(比如注意到"陈平安喜欢宁姚"),它能自动捕捉文字间的深层联系。
3/4/2025 1:00:00 AM
山河已无恙
DeepSeek提示词超能手册:五大核心技巧,榨干AI生产力!
🎯 技巧1:R-T-F黄金三件套——角色 任务 格式锁定AI身份,输出不跑偏! R (Role):角色,明确AI需要扮演的身份或专家领域。 T (Task):任务,清晰定义AI需完成的具体目标。
3/4/2025 12:35:00 AM
新叔
用上DeepSeek,改简历快人一步:AI简历优化保姆级教程
作为科技博主,我测评过上百款AI工具,今天给大家安利一个简历优化的"外挂神器"——DeepSeek。 它能让你的简历从"已读不回"变成"收割offer",操作比美图秀秀还简单,特别适合没经验的应届生和转行小白。 一、为什么需要AI改简历?
3/4/2025 12:00:55 AM
架构师秋天
突破性进展!浙大scNiche框架精准识别细胞生态位,助力精准医疗
编辑 | 2049随着单细胞空间组学技术的快速发展,科研人员可以在单细胞分辨率水平上系统探索组织中细胞状态、功能和相互作用。 然而,如何从这些海量的空间组学数据中精确识别和表征细胞生态位(cell niche)仍是一个重大挑战。 近日,浙江大学药学院团队开发了一个名为 scNiche 的计算框架,可以从单细胞分辨率的空间组学数据中有效识别和表征细胞生态位。
3/3/2025 4:23:00 PM
ScienceAI
马斯克最新预言:AI毁灭世界的概率为20%!星舰全程复用后成本将砍99%!计划30年内完成火星殖民,100万人定居新星!
整理 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)3月1日,马斯克再次做客《The Joe Rogan Experience》播客节目,语出惊人! “还有一个更高级的阶段——当AI比所有人类加在一起还要聪明。 坦白说,我觉得这个节点可能会出现在2029或2030年,基本上刚好赶上《终结者》的时间线。
3/3/2025 3:14:18 PM
武晓燕
Agent只是手段,工作流才是内容!
编辑|言征现代企业中有一个无名英雄:工作流程。 它有时被称为规则引擎、流程流、单状态机或软件定义的工作流程。 在用户界面(UI)中,它是一个“向导”。
3/3/2025 1:26:39 PM
言征
大模型是一场新的搜索战争,OpenAI不会赢家通吃,一家最好被收购!硅谷知名投资人曝料特朗普希望马斯克更积极裁撤美政府预算
编辑 | 言征出品 | 51CTO技术栈(微信号:blog51cto)最近DeepSeek开源周带来了很多惊喜与热议。 但小编发现大家对于马斯克的Grok3的讨论却远远不够充分。 作为“大模型球赛”的最不可捉摸的强大力量,马斯克的xAI最新模型已经上线,便迅速登顶了iPhone的下载排行榜,引起的轰动同样不可小觑。
3/3/2025 12:59:39 PM
言征
中国团队首次夺魁!无问芯穹FlightVGM获FPGA'25最佳论文,峰值算力超GPU21倍
国际可重构计算领域顶级会议 ——FPGA 2025 在落幕之时传来消息,今年的最佳论文颁发给了无问芯穹和上交、清华共同提出的视频生成大模型推理 IP 工作 FlightVGM,这是 FPGA 会议首次将该奖项授予完全由中国大陆科研团队主导的研究工作,同时也是亚太国家团队首次获此殊荣。 这项工作首次在 FPGA 上实现了视频生成模型(Video Generation Models, VGMs)的高效推理,也是该团队继去年在 FPGA 上加速大语言模型 FlightLLM(FPGA’24)后的最新系列工作。 与 NVIDIA 3090 GPU 相比,FlightVGM 在 AMD V80 FPGA 上实现了 1.30 倍的性能提升与 4.49 倍的能效提升(峰值算力差距超过 21 倍)。
3/3/2025 12:16:48 PM
机器之心
CVPR满分论文:一块2080Ti搞定数据蒸馏,GPU占用仅2G,来自上交大“最年轻博导”课题组
只要一块6年前的2080Ti,就能做大模型数据蒸馏? 来自上交大EPIC实验室等机构的一项最新研究,提出了一种新的数据集蒸馏方法——NFCM。 与前SOTA相比,新方法的显存占用只有1/300,并且速度提升了20倍,相关论文获得了CVPR满分。
3/3/2025 12:13:15 PM
量子位
检索了15460项研究,AI与机械流行病学建模相结合:机遇和挑战的范围界定回顾
编辑丨toileter将嵌入机械模型中的先前流行病学知识与 AI 的数据挖掘功能相结合,为流行病学建模提供了变革性的潜力。 虽然 AI 与传统机械方法的融合正在迅速发展,但工作仍然分散。 目前,需要更好地纳入现实的决策考虑,扩大对不同数据集的探索,以及进一步研究生物和社会行为机制。
3/3/2025 12:01:00 PM
ScienceAI
速度提升3200倍,准确率提高40%!深度神经网络+纠错码革新DNA存储技术
编辑 | 2049在全球数据量呈指数级增长的今天,传统存储技术的扩展速度已难以跟上。 脱氧核糖核酸(DNA)分子作为一种信息存储介质,以其卓越的信息密度、增强的数据耐久性和几乎可忽略的维护能耗,正逐渐成为解决存储危机的关键方案。 然而,DNA 存储技术面临可扩展性和准确性之间的权衡困境,成为商业化落地的主要障碍。
3/3/2025 11:59:00 AM
ScienceAI
RAG(一)RAG开山之作:知识密集型NLP任务的“新范式”
在AI应用爆发的时代,RAG(Retrieval-Augmented Generation,检索增强生成)技术正逐渐成为AI 2.0时代的“杀手级”应用。 它通过将信息检索与文本生成相结合,突破了传统生成模型在知识覆盖和回答准确性上的瓶颈。 不仅提升了模型的性能和可靠性,还降低了成本,增强了可解释性。
3/3/2025 11:41:11 AM
Glodma
AI学术算命?Gemini 2.0预测谷歌AI大佬职业生涯,准到离谱!
如果让人工智能来点评博士论文,还顺手预测一下作者将来的职业发展。 会是什么样子? 最近,谷歌首席科学家、Gemini负责人Jeff Dean就玩了这么一出,他把自己的博士论文交给了最新的Gemini 2.0。
3/3/2025 11:21:40 AM
新智元
2025年的五大AI趋势:智能体、开源和多模型
随着AI技术的飞速发展,2025年的AI领域将迎来前所未有的变革。 从开源AI的崛起,到多模态AI的普及,再到本地AI的蓬勃发展,以及AI成本的显著降低和智能体的广泛应用,这五大趋势将深刻影响企业和个人的未来发展。 2025年,AI领域不再仅仅局限于大型语言模型(LLM),而是聚焦于更智能、更廉价、更专业和更本地的AI解决方案,这些方案能够处理多种数据类型,并实现自主行动。
3/3/2025 11:16:18 AM
Sol Rashidi
PyTorch内存优化的十种策略总结:在有限资源环境下高效训练模型
在大规模深度学习模型训练过程中,GPU内存容量往往成为制约因素,尤其是在训练大型语言模型(LLM)和视觉Transformer等现代架构时。 由于大多数研究者和开发者无法使用配备海量GPU内存的高端计算集群,因此掌握有效的内存优化技术变得尤为关键。 本文将系统性地介绍多种内存优化策略,这些技术组合应用可使模型训练的内存消耗降低近20倍,同时不会损害模型性能和预测准确率。
3/3/2025 10:42:50 AM
佚名
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
模型
数据
机器人
谷歌
大模型
Midjourney
智能
用户
开源
学习
GPT
微软
Meta
图像
AI创作
技术
论文
Gemini
Stable Diffusion
马斯克
算法
蛋白质
芯片
代码
生成式
英伟达
腾讯
神经网络
研究
计算
Anthropic
Sora
3D
AI for Science
AI设计
机器学习
开发者
GPU
AI视频
华为
场景
人形机器人
预测
百度
苹果
伟达
Transformer
深度学习
xAI
Claude
模态
字节跳动
大语言模型
搜索
驾驶
具身智能
神器推荐
文本
Copilot
LLaMA
算力
安全
视觉
视频生成
训练
干货合集
应用
大型语言模型
亚马逊
科技
智能体
AGI
DeepMind