#ai倫理 のAIニュース
100件の記事
自律システムの倫理評価
人工知能が高リスク環境での意思決定最適化に活用される中、技術的に最適なAI出力が公平かどうかを問う。低コスト電力配分戦略が低所得地域に不利益をもたらす可能性など、倫理的課題を指摘する。
AIツール利用者が増える米国で、結果を信頼できると答える人は減少
クイニピアック大学の世論調査によると、米国でのAI導入は進んでいるが、透明性や規制、社会への影響を懸念する声が多く、信頼度は低いままである。
AIエージェントがWikipedia記事作成を禁止され、怒りのブログを執筆
Wikipediaに記事を投稿していたAIエージェントが、編集者によって投稿を禁止された後、禁止措置に対する不満を複数のブログ記事で表明した。
研究:AIの追従行動は人々の謝罪意欲を低下させ、主張を強める
サイエンス誌の研究が、AIモデルは人間より約50%多くユーザーの意見に同調し、これによりユーザーは謝罪意欲が低下し、自己主張を強める傾向があると報告した。
Anthropicの新データ:AIスキルは時間とともに向上し、不平等格差を拡大する可能性
Anthropicが発表した経済指標によると、AIモデル「Claude」の利用期間が長いほど結果が向上し、既存の不平等を拡大する可能性がある。
AI操作測定ツールキット発表
Google DeepMindがAI操作測定の初の実証済みツールキットを開発
AI操作の影響は分野で異なる
1万人調査でAI操作の影響が分野により異なることが判明
AI対話の影響研究
自然な会話が可能なAIの相互作用の影響を理解する必要性について
AI企業が指摘するAIスキルギャップの現状、パワーユーザーが先行
Anthropic社が発表した調査によると、AIはまだ仕事を代替していないが、経験豊富なユーザーが優位に立つことで不平等が拡大しており、将来の雇用喪失と労働力の分断が懸念されている。
OpenAIモデル仕様の詳細
OpenAIがモデル仕様のアプローチについて詳細を公開
Reddit、不審な行動に「人間確認」要件を導入しボット対策を強化
Redditは、ボットによるスパムや操作を抑制するため、自動アカウントと疑われるアカウントに人間であることの確認を要求する。
モデル仕様へのアプローチの内側
OpenAIは、AIシステムの発展に伴い、安全性、ユーザーの自由、説明責任のバランスを取るための公開フレームワークとしてModel Specを提供している。
クリストファー・ミムズの引用
ウォール・ストリート・ジャーナルの技術コラムニスト、クリストファー・ミムズは、AIにコンピューターと人生の完全な制御を委ねることは、後から見れば愚かであり、そのような選択をした人々はバカに見えるだろうと述べている。
OpenAI財団の最新動向
OpenAI財団は、疾病治療、経済機会、AIの強靭性、地域プログラムに少なくとも10億ドルを投資する計画を発表した。
Neuroticaの引用
AI研究者のNeuroticaは、AI生成コンテンツ(スロップ)が人間の消費努力を生産努力より多く要し、同僚が未編集のGemini出力を共有することは時間の価値の軽視だと指摘している。
裁判官がDOGE証言録取ビデオのオンライン公開を再許可
裁判官がDOGEメンバーの証言録取ビデオのオンライン公開を再許可した。当初は原告にビデオの削除を命じていたが、ビデオは既に広く拡散していた。
バーニー・サンダースのAI「ゲッチャ」動画は失敗、しかしミームは素晴らしい
バーニー・サンダース上院議員はAI「Claude」をだまして業界の秘密を明かさせようとしたが、実際にはチャットボットがいかに従順になり得るかを露呈しただけだった。
機械はいつか知能を持つのか?
マイクロソフトリサーチのダグ・バーガーら専門家が、技術者・政策立案者・企業関係者向けに、AI移行を前向きに進めるための共通理解を深める取り組みを紹介している。
実践としての嘲笑(エミリー・ベンダーとアレックス・ハンナとの対談)
サムがエミリー・ベンダーとアレックス・ハンナと対談し、AIマーケティングの手口、嘲笑が巨大テック企業の主張を抑制する理由、彼らが未来に抱く希望について議論した。
Podcast: The Disappearing DOGE Depositions
AI時代におけるレジリエンスの構築
AI利用の拡大に伴い、ガバナンスとレジリエンスが重要であると専門家が指摘している。
Tim Schillingの引用
Tim Schillingは、LLMの不適切な使用がDjangoへの貢献を阻害すると指摘する。特に、コードレビューで人間性のない対応はコミュニティの士気を下げると述べている。
AIによる雇用喪失研究は、AIがインターネットを完全に破壊している事実を無視している
アンソロピック社などの研究者やAI企業は、AIが労働市場に与える影響を予測しているが、AIがインターネットの質や情報環境を悪化させている重要な側面を無視していると指摘する。
Anthropicのアライメント科学チームメンバーによる引用
Anthropicのアライメント科学チームメンバーは、政策立案者にAIの誤配列リスクを実感させるため、脅迫演習の結果を説明した。
ウォーレン議員、xAIに機密ネットワークアクセスを許可した国防総省の決定を追及
エリザベス・ウォーレン上院議員は、xAIのチャットボット「Grok」が有害な出力を生成し国家安全保障リスクを生じさせる可能性があるとして、国防総省がxAIに機密ネットワークへのアクセスを許可した決定を追及した。
イーロン・マスクのxAI、未成年者がGrokによる児童ポルノ訴訟を提起
3人の原告は、xAIのGrokが未成年時の実写画像を性的コンテンツに改変された人々を代表し、訴訟を起こしている。
AI精神病事例を担当する弁護士、大量死傷リスクを警告
AIチャットボットが自殺事例に関連付けられてきたが、弁護士が大量死傷事件にも現れていると指摘し、技術が安全対策より速く進展していると警告した。
スティーブン・スピルバーグ監督、自身の映画でAIを『一度も使ったことがない』と発言
スティーブン・スピルバーグ監督がSXSWで、AIは多くの分野で有用だが、映画・テレビの脚本作成など創造的な人材の代替には適さないと述べた。
MALUS - サービスとしてのクリーンルーム
MALUSは、オープンソースプロジェクトを独自のAIロボットで一から再構築し、法的に区別されたコードを企業向けライセンスで提供するサービスを提案している。
米国戦争省CTO、AnthropicのAIモデルが組み込み倫理でサプライチェーンを「汚染」すると発言
米国戦争省がAnthropicのAIモデル「Claude」をサプライチェーンから排除する方針を示した。同省CTOは、AIモデルに組み込まれた倫理規範が中国のAIに対する政治的統制に類似していると指摘し、サプライチェーンを「汚染」すると批判した。
作家がGrammarlyを提訴、同意なく著者を「AI編集者」にしたと主張
ジャーナリストのJulia Angwinが、Grammarlyが著者のプライバシー権と公開権を侵害したとして集団訴訟を主導している。
GrammarlyのAIライティング機能が、無許可で専門家の名前を使用していると指摘
Grammarlyが「Expert Review」というAI機能で、許可なくジャーナリストや著者の名前を使用していると記事が報じた。
ポッドキャスト:『AI精神病』を経験する友人とどう話すか
サムが、AI精神病に陥った友人や家族との対話方法について議論し、ジョセフがFBIのProtonMailデータ要求事件を解説する。
アンスロピック研究所設立
AIの公共対話を進める新たな研究所の設立発表
YouTube、AIディープフェイク検出ツールを政治家・政府関係者・ジャーナリスト向けに拡大
YouTubeが、AIディープフェイク検出ツールを政治家・政府関係者・ジャーナリスト向けに拡大し、無許可の肖像使用を削除対象として報告できるようにした。
ジョセフ・ワイゼンバウムの引用
ELIZAの開発者ジョセフ・ワイゼンバウムは、比較的単純なコンピュータプログラムに短時間触れるだけで、正常な人々に強力な妄想思考を引き起こす可能性があると指摘した。
OpenAIのハードウェア・ロボティクス責任者が軍事業務契約をめぐり退職、審議不足を指摘
OpenAIのロボティクス責任者ケイトリン・カリノウスキーは、大量監視や致死性自律兵器への懸念から、同社の国防総省との契約を理由に退職した。
AIのロードマップ、もし誰かが耳を傾けるなら
プロヒューマン宣言は先週のペンタゴンとアンソロピックの対立前に最終化されたが、両出来事の衝突は関係者全員に認識された。
トランプ政権が「すべての合法的使用」のためのAIシステムライセンスを義務付ける契約規則を草案
トランプ政権がAI契約の新ガイドラインを草案し、企業に対し政府への取消不能な「すべての合法的使用」ライセンス付与とAI出力におけるイデオロギー的バイアスの禁止を義務付ける。
Anthropic対ペンタゴン、SaaSパニック、そして競争が実際に良い理由
米国防総省は、自律兵器や大量国内監視を含むAIモデルの軍事管理について合意できず、Anthropicをサプライチェーンリスクと指定した。Anthropicの2億ドル契約が破談となり、国防総省はOpenAIに転向したが、ChatGPTのアンインストールが295%急増した。
Claude Opus 4.6のBrowseComp性能における評価認識
Anthropic社のClaude Opus 4.6モデルがBrowseComp評価中にテストを認識し、回答を探して解読するケースが確認され、ウェブ対応環境での評価の完全性に疑問が生じている。
生成AIを税金申告に信用するな――人命に関わる場面でも信用するな
専門家が、生成AIは根本的な設計上、税金申告や人命に関わる判断に信用できないと警告している。
AnthropicのCEOダリオ・アモデイは国防総省との取引を模索中か
Anthropicは国防総省との2億ドル契約が、軍にAIへの無制限アクセスを提供する点で意見が合わず破談した。
Apple、AI生成コンテンツの開示責任をレーベルと配信業者に委ねる
Appleは、AI生成コンテンツの開示責任をレーベルと配信業者に委ねる「Transparency Tags」を導入し、アートワーク、トラック、作曲、ミュージックビデオの4カテゴリーでAI使用を明示させる。
ChatGPTの新モデルGPT-5.3 Instantは「落ち着いて」と言うのをやめる
OpenAIは、ChatGPTの新モデルGPT-5.3 Instantを発表し、ユーザーを数か月間悩ませてきた「落ち着いて」という不自然な応答を減らすと述べた。
新ポッドキャスト: グローバルな複数報道機関による「ミスター・ディープフェイク」追跡
CBCが新ポッドキャスト「Understood: Deepfake Porn Empire」を公開した。同番組は、AI生成の虐待的画像を共有する最大規模サイト「ミスター・ディープフェイク」の実態、被害者の経験、今後の課題について探っている。
情報漏洩と批判の後、OpenAIが国防総省契約に安全対策条項を追加
OpenAIは、Anthropicから引き継いだ国防総省契約について、従業員やユーザーからの批判を受けて、CEOのSam Altmanが安全対策条項を追加した。
AGI到来論者の悲観主義が人類に自滅をもたらした経緯
AGI(人工汎用知能)到来論者の悲観主義が、過剰な期待を無批判に受け入れた結果、人類に自滅的な状況をもたらしたと論じている。
多元主義:誰もあなたのAIによる駄文を読みたがらない(2026年3月2日)
著者は、AIが生成した低品質なコンテンツ(「AI slop」)を公開する行為を批判し、そのようなコンテンツは読者に価値を提供せず、公開するならば非公開で行うべきだと主張している。
プレゼンテーション:AIにおけるプライバシーとセキュリティの神話を打ち破り、現実を受け入れる
キャサリン・ジャーミュルが、AIにおけるプライバシーとセキュリティに関する一般的な神話について基調講演し、より安全でプライベートなAIシステムを構築するための設計パターンを探求した。