About 105,000 results
Open links in new tab
  1. 一文了解Transformer全貌(图解Transformer)

    Sep 26, 2025 · Transformer整体结构(输入两个单词的例子) 为了能够对Transformer的流程有个大致的了解,我们举一个简单的例子,还是以之前的为例,将法语"Je suis etudiant"翻译成英 …

  2. 如何最简单、通俗地理解Transformer? - 知乎

    这个东西很难说到底有没有一种简单、通俗地理解方式。 你看这个问题下面现在有60多个回答,我大概翻看了一下,几乎都是长篇大论,原因很简单,Transformer就不是简单几句话就能讲得 …

  3. Transformer模型详解(图解最完整版) - 知乎

    Transformer 的整体结构,左图Encoder和右图Decoder 可以看到 Transformer 由 Encoder 和 Decoder 两个部分组成,Encoder 和 Decoder 都包含 6 个 block。Transformer 的工作流程大体 …

  4. Transformer 和 cnn 是两条差异巨大的路径吗? - 知乎

    卷积和注意力:AI 领域的“分手还是复合”剧本? Transformer 和 CNN,真的是两条差异巨大的路径吗? 两者设计逻辑不一样,但目标一致——让机器看懂东西 CNN 是图像领域的老炮,靠“局 …

  5. 如何从浅入深理解 Transformer? - 知乎

    如果说「从浅入深」理解 Transformer,逐渐要到深的那部分,答案肯定短不了,希望你有耐心看完。我认为分三步: 第一步,了解 Transformer 出现之前的几个主流语言模型,包括 N 元文 …

  6. 为什么Transformer 需要进行 Multi-head Attention? - 知乎

    1 什么是self-Attention 首先需要明白一点的是,所谓的自注意力机制其实就是论文中所指代的“Scaled Dot-Product Attention“。在论文中作者说道,注意力机制可以描述为将query和一系列 …

  7. transformer的细节到底是怎么样的? - 知乎

    Codegeex 画了个 transformer 的结构图,个人认为是对transformer画的最良心的,一张图解释一切~~ 欣赏:

  8. 如何最简单、通俗地理解Transformer? - 知乎

    在人工智能的世界里,Transformer架构的出现无疑是一场革命。它不仅改变了人工智能领域的发展轨迹,更使得人工智能在自然语言处理、语音识别、图像处理等诸多领域取得了突破性的进展 …

  9. MoE和transformer有什么区别和联系? - 知乎

    01. Transformer:像“万能翻译官”的神经网络 Transformer 是当今AI大模型(如ChatGPT)的核心架构,最初用于机器翻译,核心是自注意力机制(Self-Attention),能同时分析句子中所有词 …

  10. 如何评价 Meta 新论文 Transformers without Normalization? - 知乎

    Transformers without Normalization?论文链接:https://arxiv.org/pdf/2503.10622