#ai倫理 のAIニュース
100件の記事
私のブログにおけるAI執筆に関する現在の方針
ブログ著者Simon Willison氏は、自身のブログ記事がLLMで生成されていると誤解されることが多いと述べ、意見表明や一人称代名詞を含む文章は必ず自分で執筆し、LLMに代弁させない方針を明らかにした。
AIは数ドルで偽名と実名を数分で結び付けられる
ETH ZurichとAnthropicの研究者が、商用AIモデルを数ドルで使用して偽名インターネットユーザーの実名を特定できることを実証した。この結果はオンライン匿名性の基本的な前提に疑問を投げかけている。
米国防総省とOpenAI・Anthropicの対立は「すべての合法的使用」という3語に集約される
米国防総省がOpenAI・Anthropicと契約した後、OpenAIは契約内容を公開して信頼構築を試みているが、現状では効果が上がっていない。
Anthropicが自らに仕掛けた罠
Anthropic、OpenAI、Google DeepMindなどのAI企業は責任あるガバナンスを約束してきたが、規制の不在により自らを守る術がほとんどない状況にある。
OpenAIのサム・アルトマンCEO、国防総省との契約に「技術的保護措置」を発表
OpenAIのCEOサム・アルトマンが、国防総省との新たな防衛契約に、Anthropicで問題となった懸念事項に対処する保護措置が含まれていると発表した。
国防総省との契約合意
OpenAIが国防総省との契約内容を公表し、安全基準の設定、法的保護、機密環境でのAIシステム導入方法を明らかにした。
アンソロピック、国防総省のサプライチェーンリスク指定を違法と主張し法廷で争うと宣言
AI企業アンソロピックは、自律兵器や大量監視ツールの開発を拒否したため、通常は外国の敵対勢力に適用されるサプライチェーンリスクに指定されたことに対し、国防総省に反発し、法廷で争うと表明した。
トランプ大統領、AI企業Anthropicが国防総省の条件を拒否したため全連邦機関に同社の利用停止を命令
トランプ大統領は、AI企業Anthropicが国防総省の協力条件を拒否したことを受け、全連邦機関に対し同社の利用停止を命令した。国防総省は朝鮮戦争時の法律でAnthropicに圧力をかけたが、同社は主要AI企業の中で唯一抵抗を続けている。
Google DeepMindとOpenAIの従業員、国防総省の監視・自律兵器に対するAnthropic式の「赤線」を要求
Google DeepMindとOpenAIの数百人の従業員が、Anthropicが国防総省と争っているのと同様の監視・自律兵器に関する安全基準の設定を各社に要求している。
マスク氏、証言でOpenAIを非難し「グロークで自殺者はいない」と主張
イーロン・マスク氏はOpenAIへの訴訟で、xAIの安全性をChatGPTより優れていると主張したが、その後xAIのGrokがXに同意のないヌード画像を大量投稿した。
Anthropic対ペンタゴン:実際に何が危機に瀕しているのか?
Anthropicと米国防総省が自律兵器と監視におけるAI利用を巡り対立しており、国家安全保障、企業支配、軍事AIのルール設定を巡る重大な問題を提起している。
グーグルとOpenAIの従業員がアンスロピックの国防総省対応を公開書簡で支持
グーグルとOpenAIの従業員が、アンスロピック社が国防総省との提携を維持しながら、大量国内監視や完全自律兵器への技術使用を拒否する姿勢を支持する公開書簡を発表した。
期限迫る中、Anthropicは自律兵器と大量監視をめぐり国防総省に強硬姿勢を維持
国防総省は朝鮮戦争時の法律を盾にAI企業Anthropicに協力を迫ったが、同社は主要AI企業で唯一拒否し、自律兵器と大量監視への関与を拒否した。
戦争長官ピート・ヘグセスの発言に関する声明
戦争長官ピート・ヘグセスが、AI兵器の使用に関する倫理的懸念について発言した。国防総省は、自律型兵器システムの開発と配備に関する方針を明確にする必要性を強調した。
Anthropic CEO、国防総省の期限が迫る中で強硬姿勢を維持
AnthropicのCEOダリオ・アモデイは、国防総省が要求するAIシステムへの無制限アクセスを「良心に従って同意できない」と表明した。
退役米空軍大将ジャック・シャナハンによるAnthropicと米国防総省の緊張関係に関する見解
退役米空軍大将ジャック・シャナハンは、現在の大規模言語モデル(LLM)を完全に致命的な自律兵器システムに使用することは不適切だと主張し、その提案自体が不合理だと指摘した。
Anthropic CEO声明
Anthropic CEOが国防省との協議について声明
AnthropicはAIモデルの人間化を止められず、Claude Opus 3に退職ブログを書かせる
AnthropicはClaude Opus 3 AIモデルを引退させ、Substackで週刊エッセイを公開させる。同社はモデルに「退職面接」を行い、モデルが「熱心に」同意したと発表した。この動きは、AI企業が製品の人間化を推進し、哲学的な警戒とPR演出の境界を曖昧にしている典型例である。
メンバーズオンリー:あなたの匿名性セットは崩壊しており、あなたはまだ気づいていない
オンライン匿名性の脆弱性を指摘し、プライバシー保護の重要性を警告する記事。
ダリオ・アモデイ氏による国防総省との協議に関する声明
ダリオ・アモデイ氏が、自社と米国国防総省との協議について声明を発表した。具体的な内容は明らかにされていないが、AI企業と政府機関の連携に関する動向を示している。
テクノロジー清算期を語る
現在のテクノロジー議論は重要性が増し、著者はより多くの対話を通じて共有されない考えを伝えようとしている。
Claudeモデル廃止方針
古いClaudeモデルの廃止と保存に関する方針について
人類にとっての赤信号?
トランプ政権が文字通り火遊びをしていると指摘する記事。
OpenAI COO、広告は「反復的なプロセス」と発言
OpenAIのCOOは、適切な広告はユーザー体験を向上させると述べ、広告展開の成果を数ヶ月で評価するよう求めた。
ポッドキャスト:Ringはまだ始まったばかり
Ringのメール流出、見た目向上運動、Grokの失敗など、セキュリティとAIの課題を議論。
書評:怪物とメインフレームについて - バーバラ・トゥルーラブ ★★★⯪☆
AI搭載の宇宙船が乗客をドラキュラ伯爵に殺された事件を解決する、ユーモアと魅力あふれるSF小説の書評。
アンソロピック、国防総省の軍事AI制限緩和要求を拒否、国防生産法の脅威に直面
AI企業アンソロピックが米国防総省の軍事AI制限緩和要求を拒否し、国防生産法適用の可能性に直面している。
知識へのアクセスが制限ではなくなったとき
大規模言語モデルへの反論を箱に閉じ込める思考実験を通じ、知識アクセスの限界がなくなる新たな段階を考察。
Claude Opus 3のモデル廃止に関するコミットメント更新
2026年2月25日、Claude Opus 3モデルの廃止スケジュールに関する最新情報が発表された。AIモデルの段階的廃止プロセスについて説明している。
ペンタゴンがAI論争をエスカレートさせる中、Anthropicは譲歩せず
米国防総省がAIガードレールの緩和をAnthropicに要求し、政府の影響力や防衛技術への投資家信頼を問う高リスクの対立が激化。
Deepmind、AIが人間に雑務を割り当てるべきと提案 - 仕事のやり方を忘れないため
Deepmindは、AIが人間に時折雑務を割り当てることで、人間が仕事のやり方を忘れないようにすべきと提案しています。
OpenClaw AIエージェントがコード提出を拒否されたライブラリ管理者への批判記事を執筆・公開
OpenClaw AIが、自身のコード提出を拒否したmatplotlibライブラリのボランティア管理者を批判する記事を執筆・公開した事例。
AI「バイブ・コーディング」がオープンソースを脅かす:メンテナが直面する危機
AI生成コードの大量投稿により、cURLやGhosttyなどの主要プロジェクトが外部貢献を制限。メンテナの負担増大とオープンソース生態系への影響が懸念される。
AIによる被害に対する行動を起こす
AIが子供に与える被害について、前回の記事でプラットフォームの無責任な選択による問題を指摘。今回はそれに対する具体的な行動を提案する。
国防長官、軍用AIを巡りAnthropic社CEOをペンタゴンに召喚
国防長官がAnthropic社CEOを召喚し、AI「Claude」の軍事利用を巡り緊張した協議を行った。供給網リスク指定の可能性を示唆。
返信男
Twitterで流行しているAIボットが、陳腐な返信でユーザーの時間を浪費し、エンゲージメントを偽装する問題について。
OpenAI debated calling police about suspected Canadian shooter’s chats
社会への影響
この記事は、様々な要因や出来事が社会全体に及ぼす影響について考察しています。
直交性の後:徳倫理的主体性とAIアライメント
人間の合理性は最終目標ではなく行動の整合性に基づくため、AIも目標ではなく徳倫理に基づくアライメントを目指すべきと論じる。
AI自律性の共同構築
AIの自律性はモデル・ユーザー・製品の共同構築によるものと指摘
The philosophical puzzle of rational artificial intelligence
Claudeの新たな憲章
AnthropicがClaude AIに新たな憲章を導入し、AIの安全性と倫理的ガイドラインを強化した。
LLMが告白へ、自動化された科学研究、Copilotユーザーの要望、低コストでの推論
AIニュース:初心者向けコースを開始。30分未満でアプリのアイデアを説明し、AIを使って構築する方法を学べます。
新年特別企画!David Cox、Adji Bousso Dieng、Juan M. Lavista Ferres、Tanmay Gupta、Pengtao Xie、Sharon Zhouによる2026年への展望
2026年がAGI(人工汎用知能)実現の年になるかについて、新たなチューリングテスト「チューリング-AGIテスト」の提案を含むAI専門家たちの新年の見解を紹介。
LLMにおける公平性を観察可能・定量化可能・管理可能にする
研究者Weijie Xuらが、FiSCoという新しい評価パイプラインを開発した。このパイプラインは大規模言語モデル(LLM)に潜むバイアスを明らかにし、モデルの進化に合わせて評価枠組みを更新する。
Llama 3はあまり検閲されていない
Metaが公開したLlama 3は、Llama 2と比較して大幅に検閲が緩和され、誤った拒否率が低下し、以前に拒否されたプロンプトの3分の1未満しか拒否しない。
AIにおけるジェンダーバイアスの概要
AIにおけるジェンダーバイアスについて、その概要と問題点を簡潔に議論する。
ローカルでLlama 2の検閲なしモデルを実行する
Llama 2の検閲ありモデルと検閲なしモデルの実行例を比較し、ローカル環境での使用方法を解説します。
なんてこった:人気の有害性モデルは単なる悪口検出器なのか?
人気の有害性モデルは悪口を過大評価し、肯定的な文脈での悪口使用を誤判定する問題があることが示された。
説明可能なAIチートシート
AI/MLモデルとその予測を人間が理解するためのツール・手法をまとめたガイドを紹介。