
Anthropic が企業向けに限定提供を始めたばかりのサイバーセキュリティ AI「Claude Mythos Preview」が、第三者ベンダー経由で未公認ユーザーにアクセスされたと Bloomberg が報じました。TechCrunch には Anthropic 広報が「同社環境への影響は確認していない」とコメントしています。
問題はここで、Mythos 自体がそもそも「扱いを誤れば強力な攻撃ツールにもなりうる」と位置づけられていたモデルだ、という点です。
Bloomberg の報道を TechCrunch がまとめたうえで、The Verge が追ったかたちです。要点を並べると、次のとおりになります。
Anthropic の広報は TechCrunch 宛のコメントで「第三者ベンダー環境経由で Claude Mythos Preview に未公認アクセスがあったとする報告を調査中」としつつ、「現時点で自社システムに影響があった証拠はない」と明言しています。
見落としがちだけど、この話は単発のリーク事件というより、Anthropic が打ち出した限定提供の枠組み自体に傷がついたという構図です。
Mythos は Project Glasswing という限定公開プログラムの一部として、Apple を含む一部ベンダーに先行提供されていました。防御用に使えるセキュリティ AI だからこそ、攻撃側に渡せば危険ということで、あえて絞った提供形態を選んでいた、という背景があります。
そのうえで今回の報告が事実なら、攻撃想定の外にあった”契約ベンダー経由”という経路から漏れたということになります。規制や監査の文脈で見ても、サプライチェーン側のアクセス管理を問われる典型的なパターンです。
セキュリティインシデントの類の記事では、煽らずに「で、自分のところは何をすればいいのか」を残すべきだと思っているので、想定される読者(情シス・CISO)視点で実務的に並べます。
順序を間違えないこと。「自社で Mythos を契約しているか」よりも先に、「同じ構図で自社が他社のインシデントに巻き込まれうるか」を見たほうが早いです。
判断材料が揃うまで動かない方がよい領域ではありますが、次に追うべきポイントだけ書き残します。
リスクは複数ある話です。読者には、Mythos を契約しているかどうかではなく、「自社が似た構図のどこかに立っていないか」で読んでほしい一件でした。動向は追っておきたい。
TechCrunch — Unauthorized group has gained access to Anthropic’s exclusive cyber tool Mythos
The Verge — Anthropic’s most dangerous AI model just fell into the wrong hands
Bloomberg — Your Questions About Anthropic’s Mythos AI Model, Answered