## 通过激活最大化合成提示词,实现高准确率
本项目探索使用激活最大化——一种通常用于理解神经网络的技术——来*生成*大型语言模型(LLM)的有效提示词。作者在学习PyTorch并对激活最大化着迷的同时,旨在展示其超越模型解释的潜力。
激活最大化通过调整训练模型的*输入*,而不是模型的权重,来引发特定的期望输出。该实验使用了Llama-3.2-1B-Instruct和Yelp评论极性(情感分类)数据集。
值得注意的是,通过激活最大化合成的4个token的提示词达到了**95.9%的准确率**,显著优于仅达到**57%**的手写提示词。这是通过将提示词视为连续张量并使用梯度下降对其进行优化来实现的。
作者强调了该技术在需要快速任务切换的场景中的潜力,因为它避免了与模型微调或LoRA训练相关的成本。代码可在GitHub上找到 ([github.com/JoeCooper/PromptByMax](https://github.com/JoeCooper/PromptByMax))。这种方法建立在之前的工作之上,例如Prefix-Tuning (Li & Liang, 2021)。