正确答案是:A, B, D。
分析如下:
A: Adversarial prompting 是一种重要的 prompt 工程技术,用于了解 LLMs 的风险和安全问题。
- 这是正确的。Adversarial prompting 是用于测试和评估大语言模型(LLMs)在面对恶意提示时的表现和安全性,以识别和缓解潜在的风险。
B: Prompt injection 是一种 adversarial prompting 攻击方法,旨在通过巧妙的提示来改变模型的行为。
- 这是正确的。Prompt injection 是一种常见的 adversarial prompting 攻击方法,通过插入恶意或巧妙设计的提示,攻击者可以改变模型的输出或行为。
C: Prompt leaking 是一种 adversarial prompting 攻击方法,旨在从提示中泄漏机密信息。
- 这是不正确的。Prompt leaking 并不是一种常见的术语或攻击方法。通常,adversarial prompting 关注的是如何通过提示改变模型的行为,而不是泄漏信息。
D: Jailbreaking 是一种 adversarial prompting 攻击方法,旨在迫使模型执行不符合其指导原则的行为。
- 这是正确的。Jailbreaking 是一种 adversarial prompting 技术,攻击者通过设计特定的提示,使模型执行违反其预设安全和道德原则的行为。
综上所述,正确答案是 A, B, D。