New Jailbreaks Allow Users to Manipulate GitHub Copilot
2025/01/31 DarkReading — GitHub の AI コーディング・アシスタント Copilot を操作する、2つの新たな手法を研究者たちが発見した。この方式を用いれば、セキュリティ制限やサブスクリプション料金の回避や、悪意のモデルのトレーニングなどが可能になる。
Continue reading “GitHub Copilot で発見されたジェイルブレイクの手法:悪意のモデルのトレーニングなどが可能に?”