LLM 的“母语”是什么?

编辑:alan【新智元导读】在以英语为主的语料库上训练的多言语 LLM,是否使用英语作为内部言语?对此,来自 EPFL 的研究职员针对 Llama 2 家族进行了一系列试验。大言语模型的「母语」是什么?我们的第一反应很可能是:英语。但事实果真如此吗?尤其是对于能够听说读写多种言语的 LLM 来说。对此,来自 EPFL(洛桑联邦理工学院)的研究职员发表了下面这篇工作来一探究竟:论文地址: pdf / 2402.10588项目地址: epfl-dlab / llm-latent-language作者以 Llama2 为

LLM 的“母语”是什么?

编辑:alan

【新智元导读】在以英语为主的语料库上训练的多言语 LLM,是否使用英语作为内部言语?对此,来自 EPFL 的研究职员针对 Llama 2 家族进行了一系列试验。

大言语模型的「母语」是什么?

我们的第一反应很可能是:英语。

但事实果真如此吗?尤其是对于能够听说读写多种言语的 LLM 来说。

对此,来自 EPFL(洛桑联邦理工学院)的研究职员发表了下面这篇工作来一探究竟:

LLM 的“母语”是什么?

论文地址:https://arxiv.org/ pdf / 2402.10588项目地址:https://github.com/ epfl-dlab / llm-latent-language

作者以 Llama2 为对象,向我们展示了具有多言语能力的 Transformer,是如何思考问题的。

像「羊驼」这种在英语区下长大的娃,他的「多言语」到底是本质属性,还是仅仅套了个翻译的壳?

这对于人们理解 LLM 的运行机制至关重要。

LLM 的“母语”是什么?

要探究大模型的内心世界,虽然听起来有点复杂,但实际上一点也不简单。

研究职员在这里化繁为简,使用特定的提醒来保证输入的唯一性,同时把 Llama-2-7B 的 32 层输入全部提取出来 —— 一层一层一层地剥开她的心。

LLM 的“母语”是什么?

于是,我们能在上图清楚地看到,羊驼在得到华文翻译(「花」)时的整个推理过程。

Transformer 将输入 token 进行逐层映照,最终预测出下一个 token,中间那些我们大概能理解或者不能理解的字符串,就是 LLM 使用的「内部言语」。

显然,在中间层的「思考」环节,羊驼用的是偏向于英语的某种神秘文字。这里需要强调一下,这是羊驼的自发行为,因为提醒中压根就没有一点英语!

LLM 的“母语”是什么?

比如上图是其中的一个试验,构建了法语翻译华文的提醒,且限制了准确答案只需 1 个 token(花)。

而下图的统计显示:在 Llama2 的大部分前向传递中,准确华文 token(蓝色)的几率远低于英文翻译(橙色)的几率。华文只在最后两层中占据主导地位。

LLM 的“母语”是什么?

为了方便大家观察,作者还将嵌入在高维空间中的路径的可视化(实际是 8192 个维度,这里使用 2D 展示)。

从输入到输入,轨迹以红色开始,以紫色结束。我们可以看到,这些路径基本都是先绕道英语,然后才返回准确的华文。

LLM 的“母语”是什么?

不过,这是否确实表明 Llama2 先用英文进行推理,然后将再其翻译成华文?

作者表示,比这更微妙一点。那些看起来像英语的中间嵌入实际上对应于抽象观点,而不是具体的英文 token。

所以,一方面,Llama2 内部的「通用语」不是英语,而是观点;但另一方面,这些神秘字符又显然是偏向于英语的观点

因此,在语义上,而非纯粹的词汇意义上,英语确实可以被视为羊驼的「母语」。

网友:我早就发现了

有网友表示:恕我直言,不仅仅是羊驼系列,基本上所有 LLM 都是这样。

LLM 的“母语”是什么?

「对于以英语为母语的人来说,这可能会令人惊讶,但对于其他人来说,这种倾向性是可见的,只不过有时多,有时少。」

「有时我会想 LLM 为什么要这样回答,然后我意识到这个答案在英语中更有意义。」

「这在诗歌中更是显而易见的。LLM 写诗很漂亮,但通常没有押韵 —— 如果你把它翻译成英语,就押韵了。」

另一位网友表示,这是大模型带来的偏见,要小心了。

LLM 的“母语”是什么?

「英语和华文最终将成为 LLM 提醒和输入的最佳言语,而随着 LLM 的应用范围越来越广泛,世界其他言语将更加边缘化。」

模型表达空间的探索

当嵌入逐层转换时,它们会经历 3 个阶段:

1. 输入空间:模型消除分词器带来的影响。

2. 观点空间:嵌入进入一个抽象的观点空间中。

3. 输入空间:观点被映照回原本的表达形式。

LLM 的“母语”是什么?

模型

试验专注于 Llama-2 系列言语模型。Llama-2 系列模型在多言语语料库上进行训练,语料库主要由英语主导(占 89.70%)。

不过考虑到总体训练数据的大小(2 万亿个 token),即使是一小部分非英语训练数据,绝对值仍然很大(德语占 0.17%=3.4B,华文占 0.13%=2.6B)。

Llama-2 有 7B / 13B / 70B 三种尺寸,分别为 32/40/80 层,嵌入维度 d=4096/5120/8192,词汇表 V 包含 32,000 个 token。试验中使用 8 位量化探究这三种不同大小的模型。

试验

试验的目标是探索 Llama-2 的内部状态,是否与特定的自然言语相对应,这需要从 token 分布映照到言语。

为了规避许多 token 在言语方面上模棱两可的问题,研究职员构造了特殊的提醒,限制 token 输入的唯一性,并且可以明确地归因于某一种言语。

翻译义务

将前面的非英语(例如法语)单词翻译成华文,示例如下,向模型展示四个单词,并带有准确的翻译,后跟第五个没有翻译的单词,让模型预测下一个 token:

LLM 的“母语”是什么?

反复义务

要求模型简单地反复最后一个单词,提醒如下:

LLM 的“母语”是什么?

完形填空义务

作为一项稍微困难的义务,模型需要预测句子中缺失的单词。给定一个目标单词,通过 GPT-4 构建一个以该单词开头的英语句子,屏蔽目标单词,并将该句子翻译成其他言语。英语示例如下:

LLM 的“母语”是什么?

单词选择

为了实现明确的言语归属,研究职员为每种言语构建了一组封闭的单词。扫描 Llama-2 的词汇表,寻找具有单 token 英文翻译的单 token 华文单词(主要是名词)。

这样一来,Llama-2 预测下一个华文单词的准确几率就可以直接从下一个 token 几率中读出。

保险起见,作者还在德语、法语和俄语上进行了相同的试验,总共测试了 139 个华文、104 个德语、56 个法语和 115 个俄语单词。三个义务的测试结果如下:

LLM 的“母语”是什么?

上图表示 Llama-2 前向传递期间,每一层输入是英语还是华文的几率,三个义务分别为:(a)从德语 / 法语 / 俄语到华文的翻译义务,(b)华文反复义务,(c)华文完形填空义务。

误差线显示输入文本的 95% 高斯置信区间(翻译义务为 353,反复义务和完形填空为 139)。

8192D 太空漫游

自回归 Transformer 是以增量方式求解的,每一层通过添加残差来修改前一层产生的潜在向量,这一过程在几何上可以描述为通过 d 维欧几里得空间的路径。

LLM 的“母语”是什么?

为了建立直觉,首先考虑一个假设的极端情况,即 token 位于整个 d 维空间的适当子空间中。

如果 latent embedding(h)具有与 token 子空间正交的分量,则表示预测中包含与 h 无关的信息。

研究职员采用 h 和 token 嵌入之间的均方余弦,来表示 h 的能量有多少转化为 logit 分数。为了可解释性,这里通过 token 嵌入本身的均方余弦进行归一化,得到 h 的平方 token 能量:

LLM 的“母语”是什么?

在上面的球形示意图中,所有嵌入都位于原点周围的球体上。token 嵌入位于赤道上,主要沿 x 轴分布,x 轴捕获言语(左英文,右华文),y 轴捕捉观点,z 轴提供了额外的自由度,可用于存储有关上下文、言语等的信息。Transformer 正向传递沿球体表面移动。

在第 1 阶段,latent embedding 从北极开始,与输入 token 和观点嵌入正交。

阶段 2 旋转到观点空间中,英语 token 占据主导。

最后,第 3 阶段沿赤道旋转到目标言语的半球,产生输入 token。

参考资料:

https://arxiv.org/abs/2402.10588

本文来自微信公众号:新智元 (ID:AI_era)

给TA打赏
共{{data.count}}人
人已打赏
AI

英伟达宣布将 Copilot + 引入 RTX 系列设施,赋能游玩本 AI 助理

2024-6-3 7:28:24

AI

黄仁勋一口气解密三代 GPU,量产英伟达 Blackwell 解决 ChatGPT 全球耗电难题

2024-6-3 9:26:06

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索