AI在线 AI在线

Transforme

从模型原理到代码实践,深入浅出上手 Transformer,叩开大模型世界的大门

作者 | Plus一、序言作为非算法同学,最近被Cursor、DeepSeek搞的有点焦虑,同时也非常好奇这里的原理,所以花了大量业余时间自学了Transformer并做了完整的工程实践。 希望自己心得和理解可以帮到大家~如有错漏,欢迎指出~本文都会以用Transformer做中英翻译的具体实例进行阐述。  二、从宏观逻辑看Transformer让我们先从宏观角度解释一下这个架构。
4/25/2025 9:00:00 AM
腾讯技术工程

Transformers基本原理—Decoder如何进行解码?

一、Transformers整体架构概述Transformers 是一种基于自注意力机制的架构,最初在2017年由Vaswani等人在论文《Attention Is All You Need》中提出。 这种架构彻底改变了自然语言处理(NLP)领域,因为它能够有效地处理序列数据,并且能够捕捉长距离依赖关系。 Transformers整体架构如下:主要架构由左侧的编码器(Encoder)和右侧的解码器(Decoder)构成。
3/10/2025 10:20:00 AM

解决 NLP 任务的 Transformer 为什么可以应用于计算机视觉?

几乎所有的自然语言处理任务,从语言建模和masked词预测到翻译和问答,在2017年Transformer架构首次亮相后都经历了革命性的变化。 Transformer在计算机视觉任务中也表现出色,只用了2-3年的时间。 在这篇文章中,我们探索了两种基础架构,它们使Transformer能够闯入计算机视觉的世界。
2/24/2025 8:20:00 AM
二旺
  • 1