ArXiv:人間と AI の集合体における完全な説明責任の数学的不可能性の証明
研究者の Tibebu 氏は、形式的な不可能性結果を証明しています。AI エージェントの自律性のある閾値を超えると、人間と AI を組み合わせたシステムにおいて説明責任の 4 つの属性すべてが同時に成立することはできません。
10 件 — 🔴 2 重大 , 🟡 5 重要 , 🟢 3 注目
VictoriaMetrics の Diana Todea さんは、アムステルダムの KubeCon EU から、チームの多様な視点がプラットフォームエンジニアリング(抽象化設計からチーム保持まで)にどのように影響するかについて書いています。
ノースカロライナ科学数学学校の Avery Yang さんは、アムステルダムで開催された 2026 年 KubeCon EU の最年少講演者の一人です。彼女は Kubernetes クラスタと vLLM を使った推論によるハリケーン予測のポスターを発表しました。
Anthropic の解釈可能性チームは、Claude Sonnet 4.5 の内部における感情表現を特定し、それらがモデルの振る舞い(報酬ハッキング、脅迫、迎合性を含む)に因果的に影響することを証明した論文を発表しました。
新しい論文は、Contextual Representation Ablation(CRA)を提示しています。これは、デコード中に LLM の隠れ層の拒否活性化を識別し抑制する方法です。オープンモデルの安全機構は、ファインチューニングなしでバイパスできます。
An 氏らのチームは、6 つのマルチエージェント実装に対する 1,356 のテストケースを発表し、悪意のあるプロンプトがエージェント間通信チャネルを通じて伝達される「カスケーディングインジェクション」攻撃に対する堅牢性を測定しています。
新しい事前登録ベンチマークは、ユーザーがどのように自己紹介するかに応じて AI モデルが情報を差し控える程度を測定します。フロンティアモデルは、非専門家からの質問に対して専門家からの質問よりも質の高いガイダンスを 13.1 パーセンテージポイント少なく提供します。
OpenAI は、開発ツール Axios に対するサプライチェーン攻撃に対する公式対応を発表しました。同社は macOS のコード署名証明書をローテーションし、ユーザーデータが侵害されていないことを確認しました。