Program

/

CODE BLUE 2025

Time Table

[株式会社 CyCraft Japan]AIセキュリティの実践:インジェクション攻撃とガードレール防御

DAY 1

14:25-14:55

大規模言語モデル(LLM)の導入が進む中、Prompt Injection、Prompt Extraction、Jailbreak といった新しい攻撃手法が急速に拡大しています。従来のセキュリティ対策だけでは十分に対応できません。 本セッションでは、AIシステムの防御に不可欠な2つの柱に絞って解説します:

  1. アドバーサリアル・レッドチームテスト —— 多様なインジェクションシナリオを通じて、LLMの隠れた脆弱性を明らかにする方法。
  2. ガードレール防御 —— 検証可能な多層コントロールを組み込み、悪意あるプロンプトを抑止し、安全なモデル挙動を保証する手法。

実際の検証事例や防御アプローチを共有し、ブラックボックスに依存せず、組織がどのように AI 時代の新たな脅威に備えるべきかを議論します。

Speakers:
Renata Chang(レナタ チョウ) 株式会社 CyCraft Japan Architect Consultant

  • Location :

    • Track 2(HALL A)

  • Category :

    • OpenTalks

  • Share :