🤖 24 AI
🟡 🛡️ セキュリティ 2026年4月22日水曜日 · 3 分で読めます

HuggingFaceマニフェスト:オープンソースがAIサイバーセキュリティの基盤

編集イラスト:AI安全の基盤としてオープンソースのブロックで埋められた壊れたデジタルシールド

なぜ重要か

HuggingFaceはマニフェストを発表し、Margaret Mitchell、Yacine Jernite、Clem Delangueと17名の共著者が、クローズドAIシステムがサイバーセキュリティの単一障害点であると主張しています。Anthropic Mythosへの回答であり、監査可能なログと人間の監督を備えた半自律エージェントを求めています。

HuggingFaceマニフェスト:オープンソースがAIサイバーセキュリティの基盤

HuggingFaceは2026年4月21日、Margaret Mitchell、Yacine Jernite、Clem Delangueと17名の共著者が、サイバー防御の未来がオープンモデル、オープンスキャフォールディング、監査可能な軌跡に依存していると論じる包括的なマニフェストを発表しました。このテキストはAnthropicのプロジェクトMythosへの直接的な回答です。

クローズドAIシステムはなぜ単一障害点なのか?

著者らは、サイバーセキュリティにおけるAIの能力は滑らかではないと主張します——それはモデルが動作するシステム(計算リソース、ソフトウェアデータ、脆弱性発見のためのスキャフォールディング、自律性)に依存します。クローズドプロジェクトでは、このシステムは単一の製造者のところに存在します。これは1つの組織だけがコードを見て修正できることを意味し、著者らはこれを「単一障害点」と表現しています。追加の問題は、AIツールが難読化されたバイナリをリバースエンジニアリングしやすくなっていることで、独自の難読化はもはや防御戦略ではなくなっています。対照的に、オープンエコシステムは検出、検証、調整、パッチ伝播の4つのフェーズにわたって作業を分散します。各フェーズは、より多くの目と結果を共有するチームから恩恵を受けます。

AIツールはクローズドコードの脆弱性をどのように増幅するのか?

マニフェストは既に起きているシナリオについて警告しています。企業が間違ったインセンティブ——安全よりも速度——の下でコード開発のAIツールを採用しています。そのような状況では、著者らによれば「AI加速の開発は従来の開発よりも多くの脆弱性を独自コードに導入する可能性がある」とのことです。これらの脆弱性はクローズドコードベースに存在し、1つの組織だけが発見・修正できますが、AI武装した攻撃者は外部から同じ穴をますます発見するようになっています。著者らはこのリスクを攻撃者と防御者間の「能力の非対称性」と呼んでいます——オープンモデルとツールはこのギャップを縮小します。なぜなら、防御者に攻撃者が使用しているのと同類の能力へのアクセスを与えるからです。

監督を備えた半自律エージェントとは何で、なぜ推奨されるのか?

人間の監視なしに完全に自律的に動作するシステムではなく、マニフェストは半自律エージェントを提案しています——アクションが事前定義され、特定のステップで人間の承認が必要で、人間が制御を保持するシステムです。重要な文言は「「ループ内の人間」は、人間がループの中を見ることができる場合にのみ意味をなす」というものです。その監督が真実のものであるためには、エージェントのオープンスキャフォールディング、オープンなルールエンジン、決定と軌跡の監査可能なログが必要です。高いリスクを持つ組織(銀行、病院、重要インフラ)にとって、これは監視システムを検査し、自社のデータで精密に調整し、カスタマイズされた監督メカニズムを持ち、内部環境内で動作する能力を意味します——外部のAIプロバイダーに機密データを送ることなく。著者らは、サイバーセキュリティの未来は個々のモデルではなくエコシステムによって形成され、開放性こそが防御者に可視性、制御、そして攻撃者より一歩先を行くための共有インフラを与える唯一の道であると結論づけています。

🤖

この記事はAIにより一次情報源から生成されました。