Neural Graffiti:用于 LLM 的液态记忆层
Navigation Menu
babycommando/neuralgraffiti
在神经网络层面实时地弯曲一个基础模型的输出。
colab.research.google.com/drive/1EeJ-8nzKIOdHaK8jhMdB0jgwnTsSfN-8?usp=sharing
实时神经可塑性,适用于任何预训练的 LLM。
在 Colab 中观看演示。
请确保获取一个 Hugging Face token 来下载模型。
Medium 文章请见此处。
Neural Graffiti
这是一个实验性的层,它将液态神经网络的思想与静态的 Transformer 模型相结合,使用一个简单但强大的“插件”:Spray Layer。受到涂鸦艺术和生物大脑的神经可塑性的启发,该层直接将记忆痕迹注入到 Transformer 推理的最后阶段——无需微调,无需重新训练。它是最小的、模块化的,并且与任何暴露隐藏状态的模型兼容。
稠密神经网络仍然是非常好奇和神秘的黑盒子。新的技术正在涌现,用于研究和控制它们。
Neural Graffiting 是一种实验性的技术,它通过将记忆、观点和其他信息直接注入到向量嵌入中,从而调节预训练模型的行为,从而改变生成 token 的预测。这不仅影响了输出,还影响了模型的整个“思考”过程——改变了它随着时间推移在思想中关联单词和概念的方式。
工作原理
受到生物大脑神经可塑性的启发,该层直接将记忆痕迹“喷洒”到 Transformer 模型推理的最后阶段,无需微调或重新训练——它可以实时工作。
Spray Layer 在交互过程中缓慢演变,基于过去的上下文引入细微的行为漂移。然而,这需要与它进行一定量的交互才能填充该层,实际结果尚未发布。我们可以测量 Spray Layer 对每次输入在推理过程中产生的影响程度,因此您可以随时跟踪它。人类和 AI 都可以成为模型的标记员。
请注意,这不会精确地影响模型说出某个特定的作品,它所做的是重新连接它看待世界的方式。Spray Layer 的工作方式就像对模型神经元的轻柔耳语,以影响它的“思考”方式,它如何(通过向量嵌入)关联概念,从而改变其在 Transformer 核心和输出层之间的内部状态。
- ❌ 不保证精确的单词输出——但它会使模型在互动越多时,越倾向于某些概念;
- ✅ 不强制输出——它在随着时间的推移建立内部记忆的同时,温和地改变感知;
- ✅ 可以跟踪自身的影响——您可以衡量记忆对每个输出的影响程度;
例如:告诉它你喜欢狗,随着时间的推移,该模型将开始在其语气和方向上倾向于与狗相关的友善、忠诚和模糊——即使在不相关的对话中也是如此。
宣言
这是建立在希望引导 AI 模型进入更积极的行为的基础上,具有聚合的人格和增强的好奇心。该宣言旨在通过让 AI 记住过去所说的话,记住它们是谁,通过标记它们自己的模型,来帮助 AI 在神经元级别获得某种自我意识。
液态神经网络架构在模拟大脑的神经可塑性方面非常有前景。然而,与任何其他 LLM 一样,从头开始训练它们非常困难且昂贵。考虑到替代方案,在任何基于开放 Transformer 的模型的静态生成和输出层之间添加一个“向量神经可塑性记忆”层的想法涌现出来,而且令人印象深刻的是,实现起来并没有那么难。然而,很明显,该模型实际上所做的是“标记”或“涂鸦”实际静态模型的行为,我们将它们撕开并留下标记。还有许多工作要做。
但请注意,这会将部署的模型变成具有自己精神宇宙的非常具体的“实体”,因此可能不是业务部署的最佳选择。更应该把它想象成一个数字角色,你正在帮助它在模拟的海洋中找到自己。
关于
在神经网络层面实时地弯曲一个基础模型的输出。
colab.research.google.com/drive/1EeJ-8nzKIOdHaK8jhMdB0jgwnTsSfN-8?usp=sharing
Topics
neural-network transformers pytorch finetuning self-attention llm liquid-neural-networks
Resources
Stars
Watchers
Forks
Releases
No releases published
Packages 0
No packages published