
Episode 39 - The Dark Side of MCP: How LLMs Can Be Hacked by Design
カートのアイテムが多すぎます
ご購入は五十タイトルがカートに入っている場合のみです。
カートに追加できませんでした。
しばらく経ってから再度お試しください。
ウィッシュリストに追加できませんでした。
しばらく経ってから再度お試しください。
ほしい物リストの削除に失敗しました。
しばらく経ってから再度お試しください。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
このコンテンツについて
The paper titled "MCP Safety Audit: LLMs with the Model Context Protocol Allow Major Security Exploits" by Brandon Radosevich and John Halloran investigates security vulnerabilities introduced by the Model Context Protocol (MCP), an open standard designed to streamline integration between large language models (LLMs), data sources, and agentic tools. While MCP aims to facilitate seamless AI workflows, the authors identify significant security risks associated with its current design.