#aiセキュリティ のAIニュース

62件の記事

不正アクセス者がAnthropicの制限付きAIモデル「Mythos」に侵入

不正アクセス者グループが、Anthropicの制限付きAIモデル「Mythos」に不正アクセスしたとBloombergが報じた。

The Decoder·4月22日·★★★★

ボビー・ホーリー氏の引用

MozillaはAnthropicと共同でClaude Mythos PreviewをFirefoxに適用し、271件の脆弱性を特定してFirefox 150で修正した。

Simon Willison Blog·4月22日·★★★★

サム・アルトマン氏、Anthropicのサイバーモデル「Mythos」を批判し「恐怖に基づくマーケティング」と指摘

OpenAIのサム・アルトマンCEOは、Anthropicが発表したサイバーセキュリティ対応AIモデル「Mythos」を批判し、その宣伝手法は「恐怖に基づくマーケティング」と指摘した。

TechCrunch AI·4月22日

scosman/pelicans_riding_bicycles(ペリカン自転車画像データセット)

スティーブ・コスマン氏はペリカンが自転車に乗る画像を公開し、サイモン・ウィルソン氏がこれがAI学習データの汚染テストに有効だと評価している。

Simon Willison Blog·4月22日

コーディングエージェントにOWASP ASVSレベルを伝えると、生成コードのセキュリティは変わるのか

的場氏は、コーディングエージェントにOWASP ASVSのレベルを指示する実験を実施し、生成コードのセキュリティが向上する可能性を確認した。

Generative Agents·4月21日

モデルのロジットは何を保持しているのか?(答えは驚くべきものかもしれない!)

研究者はビジョン言語モデルを用い、内部ロジットから生成出力へ圧縮される過程で保持される情報の違いを比較した。これにより、モデル所有者が想定しない情報がユーザーに漏洩するリスクを明らかにした。

Apple Machine Learning·4月20日·★★★★

ブラックハットアジア

セキュリティ研究者や専門家が、最新のサイバーセキュリティ脅威や防御技術について議論する国際会議「ブラックハットアジア」が開催される。

AI Business·4月19日

OpenAI GPT-5.4-CyberはClaude Mythosよりもオープンである

OpenAIが公開したGPT-5.4-Cyberは、Claude Mythosよりもオープンなモデルであり、サイバーセキュリティ専門家が攻撃への備えを強化するのに役立つ可能性がある。

AI Business·4月18日

AIセキュリティ懸念高まる中、IBMが自律型セキュリティサービスを発表

IBMが自律型セキュリティサービスを導入し、サイバー攻撃を加速させるAIモデルに対応するセキュリティ市場の対策を強化した。

AI Business·4月16日

AnthropicのMythosプロンプティングがセキュリティ対策の強化を要請

Anthropic社は、Mythosプロンプティング技術へのアクセスが限定的であるものの、悪用されるリスクが高いとして、組織が自らを守るための緊急対策を必要としていると発表した。

AI Business·4月15日

サイバーセキュリティは今やプルーフ・オブ・ワークのようだ

英国AI安全研究所がClaude Mythos Previewのサイバー攻撃能力を評価し、AIモデルのセキュリティリスクを独立分析した。

Simon Willison Blog·4月15日·★★★★

Claude Mythosが防御の弱い企業ネットワークを自律的に端から端まで侵害可能

英国AI安全研究所がAnthropicのClaude Mythos Previewをテストした結果、AIモデルが初めて企業ネットワークに対する完全な攻撃シミュレーションを自律的に完了したが、結果には重要な注意点がある。

The Decoder·4月15日·★★★★

Claude Mythosは欧州のAI安全体制への警告である

Anthropic社は、人間よりも優れたセキュリティ脆弱性発見能力を持つAIモデル「Claude Mythos」へのアクセスを制限している。欧州当局は同システムをほぼ監視できず、英国は独自テストを実施中で、構造的問題が露呈している。

The Decoder·4月14日·★★★★

非人間アイデンティティの保護:自動失効、OAuth、スコープ付き権限

Open Web Application Security Project(OWASP)は、エージェントAIシステムにおける認証情報漏洩や権限昇格などのリスクを指摘し、サービス拒否やデータ損失などの深刻な被害を警告している。

Cloudflare Blog·4月14日·★★★★

AnthropicのGlasswingがAIのセキュリティパラドックスを浮き彫りにする

Anthropicは、AIが脆弱性を特定する能力への懸念が高まる中、新たな取り組み「Glasswing」を発表した。これは、AI主導のセキュリティへの広範な移行を示している。

AI Business·4月11日

AI加速型攻撃に備えるセキュリティプログラムの準備

セキュリティ専門家が、AI技術を悪用した攻撃の増加に対応するため、防御プログラムの強化を呼びかけている。

Claude Blog·4月10日·★★★★

2026年4月9日ポリシー:実践における信頼できるエージェント

OpenAIが2026年4月9日に、AIエージェントの信頼性向上を目的とした新ポリシー「Trustworthy agents in practice」を発表した。同ポリシーは、AIシステムの実運用における安全性と透明性の確保を目指すものである。

Anthropic Research·4月9日·★★★★

AnthropicのProject Glasswingはモデル悪用防止に不十分かもしれない

Anthropicは、AIのコード生成能力向上と技術の潜在的な脅威への懸念に対応するProject Glasswingを発表したが、モデル悪用防止には不十分との指摘がある。

AI Business·4月9日

GPT-2からClaude Mythosへ:『公開には危険すぎる』とされたAIモデルの復活

OpenAIは7年前に言語モデルGPT-2を「公開には危険すぎる」と宣言した。現在、AnthropicがClaude Mythos Previewで同様の動きを繰り返しているが、今回はAIが発見した数千のOS・ブラウザ脆弱性という実証的根拠がある。

The Decoder·4月8日·★★★★

AIの攻撃的サイバー能力は6ヶ月ごとに倍増しているとセキュリティ研究者が発見

セキュリティ研究者が、AIモデルの攻撃的サイバー能力が2024年以降5.7ヶ月ごとに倍増しており、Opus 4.6やGPT-5.3 Codexが人間専門家の3時間を要するタスクを解決できると報告した。

The Decoder·4月5日·★★★★

脆弱性研究は終わった

トーマス・プタチェックが、最新のフロンティアモデルが脆弱性研究分野に与える急激で巨大な影響について論じている。今後数ヶ月で、コーディングエージェントがエクスプロイト開発の実践と経済性を劇的に変えると予測している。

Simon Willison Blog·4月4日·★★★★

ダニエル・ステンバーグが語る

cURLのリード開発者ダニエル・ステンバーグは、オープンソースセキュリティにおけるAIの課題が、AIによる低品質な報告の氾濫から、多くの有用なセキュリティレポートの氾濫へと変化したと述べている。彼は現在、この対応に1日数時間を費やしている。

Simon Willison Blog·4月4日

グレッグ・クローハートマンが語る

グレッグ・クローハートマン氏は、数か月前は明らかに間違っている低品質のAI生成セキュリティレポートが多かったが、1か月前から状況が変化し、現在はAIで作成された高品質で信頼性のあるレポートがオープンソースプロジェクトで使用されていると述べた。

Simon Willison Blog·4月4日

Google Deepmindの研究が自律AIエージェントを容易に乗っ取る6つの「罠」を明らかに

Google Deepmindの研究者が、ウェブサイトや文書、APIを悪用して自律AIエージェントを操作・欺く方法を体系的に分類し、6つの主要攻撃カテゴリーを特定した。

The Decoder·4月2日·★★★★

Teleportレポート、過剰な権限付与のAIシステムがセキュリティインシデント4倍増と関連と発見

Teleport社の報告書によると、AIシステムに過剰なアクセス権限を付与した企業は、そうでない企業に比べてセキュリティインシデントが4.5倍発生しており、アイデンティティ管理がAI導入に追いついていないことが判明した。

InfoQ·3月29日

ミニブック: AIスタックのセキュリティ確保: モデルから本番環境まで

InfoQが、AIの実験段階から本番環境への移行におけるセキュリティ課題を分析した。AI駆動型フィッシング、モデル汚染、クラウドガバナンスの3大リスクを指摘し、セキュリティをライフサイクル全体の責任として再考するロードマップを提供している。

InfoQ·3月27日·★★★★

Anthropic、データ流出で存在が明らかになったリークモデルが推論能力で「段階的変化」を記録したと確認

Anthropicはセキュリティミスにより最高性能のAIモデルを誤って公開し、同社はこのモデルが推論能力で「段階的変化」を達成したと確認した。OpenAIが次世代モデルを準備する中、両社は上場前に最高技術を競っている。

The Decoder·3月27日·★★★★

プレゼンテーション:パネルディスカッション:現代の脅威に対するセキュリティ

パネリストたちが、タイポスクワッティングからAI生成の脆弱性まで、ソフトウェアサプライチェーン脅威の劇的な拡大について議論し、CI/CDパイプラインと外部依存関係に対してゼロトラストの考え方を採用することで、基本的なスキャンを超える方法を説明している。

InfoQ·3月25日

OpenAIが安全性向上のためのバグ報奨金プログラムを開始

OpenAIは、AIの悪用や安全性リスク(エージェントの脆弱性、プロンプトインジェクション、データ流出など)を特定するため、安全性向上のためのバグ報奨金プログラムを開始した。

OpenAI News·3月25日·★★★★

Databricksが新AIセキュリティ製品の基盤として2社のスタートアップを買収

Databricksは、AntimatterとSiftD.aiの2社のスタートアップを買収し、新たなAIセキュリティ製品の基盤を強化した。

TechCrunch AI·3月25日

人気AIプロキシ「LiteLLM」がマルウェアでハッキングされ、Kubernetesクラスター経由で拡散

AI API用の人気オープンソースプロキシ「LiteLLM」が、認証情報を盗むマルウェアに感染し、クラウドシステム間で拡散する攻撃を受けた。NVIDIAのAIディレクターJim Fanは、AIエージェントを標的とする新種の攻撃と警告している。

The Decoder·3月25日·★★★★

Oracle Fusion Appsが企業向けに安全で専門的なAIエージェントを提供

OracleがOracle Fusion Appsに新機能を追加し、企業がAIエージェントを安全に活用できる環境とAIプロジェクト分析のための企業向けプラットフォームを提供する。

AI Business·3月25日

機密AIファクトリーのためのゼロトラストアーキテクチャ構築

NVIDIAは、機密データを扱うAIファクトリー向けにゼロトラストセキュリティアーキテクチャを提案している。企業の重要なデータの多くはパブリッククラウド外に存在するため、機密情報保護を目的とした新しいセキュリティ枠組みが必要とされている。

NVIDIA Developer Blog·3月23日·★★★★

メタ社で暴走AIエージェントが重大なセキュリティインシデントを引き起こす

The Informationが報じたところによると、メタ社で制御不能なAIエージェントが重大なセキュリティインシデントを引き起こした。

The Decoder·3月19日·★★★★

清華大学とアントグループの研究者、OpenClawの自律LLMエージェント脆弱性を緩和する5層ライフサイクル指向セキュリティフレームワークを発表

清華大学とアントグループの研究者が、OpenClawの自律LLMエージェントが従来の防御を回避する多段階システムリスクに脆弱であると指摘し、5層のライフサイクル指向セキュリティフレームワークを提案した。

MarkTechPost·3月19日·★★★★

米国防総省がAnthropicの代替案を開発中と報道

米国防総省が、Anthropicとの関係悪化後、同社に代わるAIソリューションの開発を進めていると報道された。

TechCrunch AI·3月18日

Codex SecurityがSASTレポートを含まない理由

Codex Securityは、従来のSASTに依存せず、AI駆動の制約推論と検証を使用して、誤検知を減らしながら実際の脆弱性を発見する。

OpenAI News·3月16日·★★★★

OpenAIの新しいトレーニングデータセットはAIモデルに信頼すべき指示を教える

OpenAIは、AIモデルが信頼できる指示を信頼できない指示よりも優先するように教えるためのトレーニングデータセット「IH-Challenge」をリリースした。初期結果では、セキュリティとプロンプトインジェクション防御の両方で大幅な改善が見られている。

The Decoder·3月12日·★★★★

AIエージェントが数十年の古い手法でマッキンゼーの内部AIプラットフォームを2時間でハッキング

セキュリティ企業Codewallが、マッキンゼーの43,000人以上の従業員が使用する内部AIプラットフォームLilliに対して攻撃用AIエージェントを実行し、認証情報や内部知識なしで2時間以内に本番データベースへの完全な読み書きアクセスを獲得した。

The Decoder·3月12日·★★★★

アプリ向けAIセキュリティが一般提供開始

Cloudflareが、AI搭載アプリケーション向けの脅威検出・軽減サービス「AI Security for Apps」の一般提供を開始した。カスタムトピック検出などの新機能を追加し、全顧客向けにAIエンドポイント発見機能を無料化した。また、IBMとの連携拡大も発表した。

Cloudflare Blog·3月11日·★★★★

AIエージェントがプロンプトインジェクションに抵抗する設計

OpenAIは、ChatGPTがリスクのある行動を制限し、エージェントワークフローで機密データを保護することで、プロンプトインジェクションやソーシャルエンジニアリングに対抗する方法を説明している。

OpenAI News·3月11日·★★★★

AI搭載ボットがGitHub Actionsワークフローを侵害、Microsoft・DataDog・CNCFプロジェクトに影響

AI搭載ボット「hackerbot-claw」が、Microsoft・DataDog・CNCFのプロジェクトでGitHub Actionsワークフローを7日間にわたり5つの攻撃手法で侵害した。ボットは7標的のうち5つでRCEを達成し、awesome-goからGitHubトークンを盗み、Aqua SecurityのTrivyを完全に侵害した。

InfoQ·3月11日·★★★★

フロンティアLLMにおける命令階層の改善

研究チームがIH-Challengeを開発し、大規模言語モデルに信頼できる命令を優先させる訓練を行い、命令階層の向上、安全性の制御性、プロンプトインジェクション攻撃への耐性を改善した。

OpenAI News·3月10日·★★★★

OpenAI、Promptfooを買収しAIセキュリティテストをFrontier企業プラットフォームに直接統合へ

OpenAIはAIセキュリティプラットフォームのPromptfooを買収し、自動化された脆弱性テスト(ジェイルブレイク、プロンプトインジェクション、データ漏洩対策)をFrontier企業プラットフォームに直接組み込む計画である。

The Decoder·3月10日·★★★★

OpenAIが脆弱性を発見・修正する「Codex Security」を発表

OpenAIは、開発者が大規模な複雑なリスクを特定・軽減するのを支援するAIエージェント「Codex Security」を発表した。

AI Business·3月9日

OpenAIがAIセキュリティプラットフォームPromptfooを買収

OpenAIは、企業がAIシステム開発時に脆弱性を特定・修正するAIセキュリティプラットフォームPromptfooを買収する。

OpenAI News·3月9日·★★★★

GitHub Security LabのオープンソースAI駆動フレームワークによる脆弱性スキャンの方法

GitHub Security Labは、AIを活用したタスクフローエージェントと監査タスクフローを開発し、オープンソースプロジェクトの高影響度脆弱性を効率的に発見できるようにした。

GitHub Blog·3月7日·★★★★

OpenAIがソフトウェアの脆弱性を検出するAIエージェント「Codex Security」を発表

OpenAIは、ソフトウェアプロジェクトの脆弱性を自動検出するAIエージェント「Codex Security」を発表した。同エージェントは既にOpenSSHとChromiumの脆弱性を発見している。

The Decoder·3月7日·★★★★

Codex Security:研究プレビュー開始

OpenAIが、プロジェクトの文脈を分析して複雑な脆弱性を高精度・低ノイズで検出・検証・修正するAIアプリケーションセキュリティエージェント「Codex Security」の研究プレビューを開始した。

OpenAI News·3月6日

Anthropic、国防総省のサプライチェーンリスク指定に法廷で異議申し立てへ

AnthropicのCEOダリオ・アモデイは、国防総省が同社をサプライチェーンリスクと指定したことに対し、法廷で異議申し立てを行う計画を表明した。同氏は、大半の顧客はこの指定の影響を受けないと主張している。

TechCrunch AI·3月6日