AI在线 AI在线

Transforme

哈佛新论文揭示 Transformer 模型与人脑“同步纠结”全过程!AI也会犹豫、反悔?

近日,来自哈佛大学、布朗大学以及图宾根大学研究者们,共同发表了一项关于Transformer模型与人类认知处理相关性的研究论文:——《Linking forward-pass dynamics in Transformers and real-time human processing》意译过来就是:Transformer模型的“思考过程”与人类大脑实时认知的奇妙相似图片换句话说,它想搞清楚一个“老问题”:AI模型的内部处理过程,和人类大脑的实时认知,有多少相似? 过去我们研究AI和人类的相似性,最常见的做法是什么? “看结果”:让AI做题,看它答对多少,概率分布和人的选择对不对得上。
5/12/2025 2:10:00 AM
文摘菌

从模型原理到代码实践,深入浅出上手 Transformer,叩开大模型世界的大门

作者 | Plus一、序言作为非算法同学,最近被Cursor、DeepSeek搞的有点焦虑,同时也非常好奇这里的原理,所以花了大量业余时间自学了Transformer并做了完整的工程实践。 希望自己心得和理解可以帮到大家~如有错漏,欢迎指出~本文都会以用Transformer做中英翻译的具体实例进行阐述。  二、从宏观逻辑看Transformer让我们先从宏观角度解释一下这个架构。
4/25/2025 9:00:00 AM
腾讯技术工程

Transformers基本原理—Decoder如何进行解码?

一、Transformers整体架构概述Transformers 是一种基于自注意力机制的架构,最初在2017年由Vaswani等人在论文《Attention Is All You Need》中提出。 这种架构彻底改变了自然语言处理(NLP)领域,因为它能够有效地处理序列数据,并且能够捕捉长距离依赖关系。 Transformers整体架构如下:主要架构由左侧的编码器(Encoder)和右侧的解码器(Decoder)构成。
3/10/2025 10:20:00 AM

解决 NLP 任务的 Transformer 为什么可以应用于计算机视觉?

几乎所有的自然语言处理任务,从语言建模和masked词预测到翻译和问答,在2017年Transformer架构首次亮相后都经历了革命性的变化。 Transformer在计算机视觉任务中也表现出色,只用了2-3年的时间。 在这篇文章中,我们探索了两种基础架构,它们使Transformer能够闯入计算机视觉的世界。
2/24/2025 8:20:00 AM
二旺
  • 1