ChatGPT, Claude, and Gemini Among 11 AI Models Vulnerable to One-Line Jailbreak
2026/04/10 gbhackers — ChatGPT/Claude/Gemini を含む 11 の主要 AI モデルにおいて、新たなジェイルブレイク手法 “sockpuppeting” (操り人形) を用いることで、安全のためのガードレールの回避が可能であることが確認された。API の標準機能を悪用する攻撃者は、複雑で数理的な最適化も行うことなく、わずか 1 行のプレフィックスを LLM に読み込ませるだけで、悪意の出力を生成させることが可能になる。
Continue reading “ChatGPT/Claude/Gemini などでジェイルブレイクが発覚:”sockpuppeting” と呼ばれる手法”