ニュース

文書ファイルなどに「目に見えないプロンプト(指示文)」を埋め込み、大規模言語モデル(LLM)の誤動作を狙う「間接プロンプトインジェクション攻撃」への警戒が高まっている。LLMが備える防御機能「ガードレール」は攻撃を防げるのか、検証した。