AI Security Hits Fast-Forward
カートのアイテムが多すぎます
カートに追加できませんでした。
ウィッシュリストに追加できませんでした。
ほしい物リストの削除に失敗しました。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
このコンテンツについて
Send us a text
We unpack how AI shifts the security game, from state-backed use of agentic tools to prompt injections that hijack functions and bypass access. We also show how to control Gemini’s training access to your data and outline practical steps to harden AI stacks.
• Anthropic’s disclosure of state actor abuse of agentic AI
• MITRE ATT&CK at machine speed via spawned agents
• When hallucinations blunt attacks and when they don’t
• Prompt injection and second-order function hijacking
• ServiceNow agent exploitation and lessons for guardrails
• Supply chain risk in Ray and distributed AI frameworks
• Practical defenses for data, context, and tool scopes
• How to opt out of Gemini training via myactivity.google.com
• Why ethical AI and transparency build user trust
If you learn something new, share this episode, share it with your friends, share it with a friend. Always please give us a like, a follow
Support the show