2025-06-04 AI 要約
目次
New firewall challenge metrics now available - Vercel
Vercel Firewallの新メトリクス導入に関する要約
Vercelは、Firewallの課題解決状況を追跡するための2つの新しいメトリクスを導入しました。
- challenge-solved: 訪問者が課題を解決し、アクセスが許可された(実際のユーザーを示す)
- challenge-failed: 訪問者が無効な課題解決策を提出した(リクエストがブロックされた)
これらのメトリクスは、ルールの有効性を評価し、ユーザーが不必要に課題に直面する状況(高い成功率)を減らすのに役立ちます。
これらのメトリクスは、FirewallダッシュボードとObservability Plusのクエリビルダーで、追加のセットアップなしで利用できます。 カスタムルールとマネージドルールセットの詳細についても参照できます。
Scaling security with responsible disclosure | OpenAI
OpenAIによる責任ある開示を通じたセキュリティのスケーリング
この記事は、OpenAIが第三者ソフトウェアの脆弱性を責任を持って報告するための「アウトバウンド協調開示ポリシー」を発表したことを伝えています。
ポリシーの目的と背景:
- OpenAIは、AIシステムの進化に伴い、協調的な脆弱性開示が不可欠になると考えています。
- 自社開発のシステムがすでに第三者ソフトウェアやオープンソースソフトウェアのゼロデイ脆弱性を発見しており、将来の発見に備えた積極的な措置です。
- 研究、オープンソースコードの監査、AIツールによる自動分析を通じて発見された脆弱性を、協力的に、敬意を持って、広範なエコシステムに役立つように報告することを目指しています。
ポリシーの内容:
- オープンソースおよび商用ソフトウェアで発見された問題の開示方法(自動および手動のコードレビュー、第三者ソフトウェアの内部利用から生じる発見など)
- 発見の検証と優先順位付けの方法
- ベンダーへの連絡方法と開示メカニズム
- 公開のタイミングと方法(原則として非公開で、例外あり)
- 原則:
- 影響重視
- 協力的
- デフォルトで非公開
- 高スケーラビリティ、低摩擦
- 必要に応じて帰属表示
- 開示タイムラインは、AIシステムの能力向上による脆弱性発見の進化を考慮し、基本的にオープンエンド。ただし、公共の利益がある場合は開示する権利を留保。
今後の展望:
- ポリシーは継続的に改善される予定。
- 開示に関する質問は、outbounddisclosures@openai.comまで。
- OpenAIは、透明性のあるコミュニケーションを通じて、より健全で安全なエコシステムの構築を目指しています。