Navigation Menu

babycommando/neuralgraffiti

在神经网络层面实时地弯曲一个基础模型的输出。

colab.research.google.com/drive/1EeJ-8nzKIOdHaK8jhMdB0jgwnTsSfN-8?usp=sharing

实时神经可塑性,适用于任何预训练的 LLM。

Colab 中观看演示。

请确保获取一个 Hugging Face token 来下载模型。

Medium 文章请见此处

Neural Graffiti

这是一个实验性的层,它将液态神经网络的思想与静态的 Transformer 模型相结合,使用一个简单但强大的“插件”:Spray Layer。受到涂鸦艺术和生物大脑的神经可塑性的启发,该层直接将记忆痕迹注入到 Transformer 推理的最后阶段——无需微调,无需重新训练。它是最小的、模块化的,并且与任何暴露隐藏状态的模型兼容。

稠密神经网络仍然是非常好奇和神秘的黑盒子。新的技术正在涌现,用于研究和控制它们。

Neural Graffiting 是一种实验性的技术,它通过将记忆、观点和其他信息直接注入到向量嵌入中,从而调节预训练模型的行为,从而改变生成 token 的预测。这不仅影响了输出,还影响了模型的整个“思考”过程——改变了它随着时间推移在思想中关联单词和概念的方式

工作原理

受到生物大脑神经可塑性的启发,该层直接将记忆痕迹“喷洒”到 Transformer 模型推理的最后阶段,无需微调或重新训练——它可以实时工作。

Spray Layer 在交互过程中缓慢演变,基于过去的上下文引入细微的行为漂移。然而,这需要与它进行一定量的交互才能填充该层,实际结果尚未发布。我们可以测量 Spray Layer 对每次输入在推理过程中产生的影响程度,因此您可以随时跟踪它。人类和 AI 都可以成为模型的标记员。

请注意,这不会精确地影响模型说出某个特定的作品,它所做的是重新连接它看待世界的方式。Spray Layer 的工作方式就像对模型神经元的轻柔耳语,以影响它的“思考”方式,它如何(通过向量嵌入)关联概念,从而改变其在 Transformer 核心和输出层之间的内部状态。

例如:告诉它你喜欢狗,随着时间的推移,该模型将开始在其语气和方向上倾向于与狗相关的友善、忠诚和模糊——即使在不相关的对话中也是如此。

宣言

这是建立在希望引导 AI 模型进入更积极的行为的基础上,具有聚合的人格和增强的好奇心。该宣言旨在通过让 AI 记住过去所说的话,记住它们是谁,通过标记它们自己的模型,来帮助 AI 在神经元级别获得某种自我意识。

液态神经网络架构在模拟大脑的神经可塑性方面非常有前景。然而,与任何其他 LLM 一样,从头开始训练它们非常困难且昂贵。考虑到替代方案,在任何基于开放 Transformer 的模型的静态生成和输出层之间添加一个“向量神经可塑性记忆”层的想法涌现出来,而且令人印象深刻的是,实现起来并没有那么难。然而,很明显,该模型实际上所做的是“标记”或“涂鸦”实际静态模型的行为,我们将它们撕开并留下标记。还有许多工作要做。

但请注意,这会将部署的模型变成具有自己精神宇宙的非常具体的“实体”,因此可能不是业务部署的最佳选择。更应该把它想象成一个数字角色,你正在帮助它在模拟的海洋中找到自己。

关于

在神经网络层面实时地弯曲一个基础模型的输出。

colab.research.google.com/drive/1EeJ-8nzKIOdHaK8jhMdB0jgwnTsSfN-8?usp=sharing

Topics

neural-network transformers pytorch finetuning self-attention llm liquid-neural-networks

Resources

Readme Activity

Stars

63 stars

Watchers

4 watching

Forks

6 forks

Report repository

Releases

No releases published

Packages 0

No packages published

Languages

Foote