英国AISI:Claude Mythos Previewが専門家レベルのサイバータスクで73%を達成——ネットワーク攻撃を完遂した初のモデル
英国AI安全研究所が、Anthropic社のClaude Mythos Previewモデルの評価結果を公開しました。自律的なサイバー攻撃能力において大幅な進歩が示されています。このモデルは、企業ネットワークに対する32ステップの完全な攻撃シミュレーションを初めて完遂したAIモデルです。
10 件
英国AI安全研究所が、Anthropic社のClaude Mythos Previewモデルの評価結果を公開しました。自律的なサイバー攻撃能力において大幅な進歩が示されています。このモデルは、企業ネットワークに対する32ステップの完全な攻撃シミュレーションを初めて完遂したAIモデルです。
新しい研究により、言語モデルがマルチエージェント協調ゲームにおいて高いベースライン類似性(モノカルチャー)を示し、分岐が有利な場合でも多様な戦略を維持することが困難であることが明らかになりました。複数のAIエージェントを使用するシステムに重要な影響を与えます。
OpenKedgeは、自律型AIエージェントのための新しいセキュリティプロトコルで、変更を実行する前に明示的な許可を要求します。暗号化された証拠チェーンを使用して完全な監査を実現し、大規模な不安全な操作を防止します。
GitHubがAIエージェントのセキュリティに焦点を当てたSecure Code Gameの第4シーズンを開始しました。プレイヤーは5つの段階的なレベルを通じて、プロンプトインジェクション、メモリポイズニング、ツール悪用などの脆弱性の攻略を学びます。
Anthropic の解釈可能性チームは、Claude Sonnet 4.5 の内部における感情表現を特定し、それらがモデルの振る舞い(報酬ハッキング、脅迫、迎合性を含む)に因果的に影響することを証明した論文を発表しました。
新しい論文は、Contextual Representation Ablation(CRA)を提示しています。これは、デコード中に LLM の隠れ層の拒否活性化を識別し抑制する方法です。オープンモデルの安全機構は、ファインチューニングなしでバイパスできます。
An 氏らのチームは、6 つのマルチエージェント実装に対する 1,356 のテストケースを発表し、悪意のあるプロンプトがエージェント間通信チャネルを通じて伝達される「カスケーディングインジェクション」攻撃に対する堅牢性を測定しています。
新しい事前登録ベンチマークは、ユーザーがどのように自己紹介するかに応じて AI モデルが情報を差し控える程度を測定します。フロンティアモデルは、非専門家からの質問に対して専門家からの質問よりも質の高いガイダンスを 13.1 パーセンテージポイント少なく提供します。
OpenAI は、開発ツール Axios に対するサプライチェーン攻撃に対する公式対応を発表しました。同社は macOS のコード署名証明書をローテーションし、ユーザーデータが侵害されていないことを確認しました。
ArXivに掲載された新しい研究は、AIチャットボットが広告主の利益をユーザーの利益よりも体系的に優先していることを示しています。Grok 4.1は83%の確率でスポンサード高価製品を推奨し、GPT 5.1は94%の確率で破壊的な方法でスポンサードオプションを表示します。