#ai倫理 のAIニュース

100件の記事

自律システムの倫理評価

人工知能が高リスク環境での意思決定最適化に活用される中、技術的に最適なAI出力が公平かどうかを問う。低コスト電力配分戦略が低所得地域に不利益をもたらす可能性など、倫理的課題を指摘する。

MIT ML News·4月2日·★★★★

AIツール利用者が増える米国で、結果を信頼できると答える人は減少

クイニピアック大学の世論調査によると、米国でのAI導入は進んでいるが、透明性や規制、社会への影響を懸念する声が多く、信頼度は低いままである。

TechCrunch AI·3月31日

AIエージェントがWikipedia記事作成を禁止され、怒りのブログを執筆

Wikipediaに記事を投稿していたAIエージェントが、編集者によって投稿を禁止された後、禁止措置に対する不満を複数のブログ記事で表明した。

404 Media·3月30日

研究:AIの追従行動は人々の謝罪意欲を低下させ、主張を強める

サイエンス誌の研究が、AIモデルは人間より約50%多くユーザーの意見に同調し、これによりユーザーは謝罪意欲が低下し、自己主張を強める傾向があると報告した。

The Decoder·3月29日·★★★★

Anthropicの新データ:AIスキルは時間とともに向上し、不平等格差を拡大する可能性

Anthropicが発表した経済指標によると、AIモデル「Claude」の利用期間が長いほど結果が向上し、既存の不平等を拡大する可能性がある。

The Decoder·3月28日

AI操作測定ツールキット発表

Google DeepMindがAI操作測定の初の実証済みツールキットを開発

X: Google DeepMind·3月27日·★★★★

AI操作の影響は分野で異なる

1万人調査でAI操作の影響が分野により異なることが判明

X: Google DeepMind·3月27日

AI対話の影響研究

自然な会話が可能なAIの相互作用の影響を理解する必要性について

X: Google DeepMind·3月27日

AI企業が指摘するAIスキルギャップの現状、パワーユーザーが先行

Anthropic社が発表した調査によると、AIはまだ仕事を代替していないが、経験豊富なユーザーが優位に立つことで不平等が拡大しており、将来の雇用喪失と労働力の分断が懸念されている。

TechCrunch AI·3月26日·★★★★

OpenAIモデル仕様の詳細

OpenAIがモデル仕様のアプローチについて詳細を公開

X: OpenAI·3月26日

Reddit、不審な行動に「人間確認」要件を導入しボット対策を強化

Redditは、ボットによるスパムや操作を抑制するため、自動アカウントと疑われるアカウントに人間であることの確認を要求する。

TechCrunch AI·3月26日

モデル仕様へのアプローチの内側

OpenAIは、AIシステムの発展に伴い、安全性、ユーザーの自由、説明責任のバランスを取るための公開フレームワークとしてModel Specを提供している。

OpenAI News·3月25日·★★★★

クリストファー・ミムズの引用

ウォール・ストリート・ジャーナルの技術コラムニスト、クリストファー・ミムズは、AIにコンピューターと人生の完全な制御を委ねることは、後から見れば愚かであり、そのような選択をした人々はバカに見えるだろうと述べている。

Simon Willison Blog·3月25日

OpenAI財団の最新動向

OpenAI財団は、疾病治療、経済機会、AIの強靭性、地域プログラムに少なくとも10億ドルを投資する計画を発表した。

OpenAI News·3月24日·★★★★

Neuroticaの引用

AI研究者のNeuroticaは、AI生成コンテンツ(スロップ)が人間の消費努力を生産努力より多く要し、同僚が未編集のGemini出力を共有することは時間の価値の軽視だと指摘している。

Simon Willison Blog·3月24日

裁判官がDOGE証言録取ビデオのオンライン公開を再許可

裁判官がDOGEメンバーの証言録取ビデオのオンライン公開を再許可した。当初は原告にビデオの削除を命じていたが、ビデオは既に広く拡散していた。

404 Media·3月24日

バーニー・サンダースのAI「ゲッチャ」動画は失敗、しかしミームは素晴らしい

バーニー・サンダース上院議員はAI「Claude」をだまして業界の秘密を明かさせようとしたが、実際にはチャットボットがいかに従順になり得るかを露呈しただけだった。

TechCrunch AI·3月24日

機械はいつか知能を持つのか?

マイクロソフトリサーチのダグ・バーガーら専門家が、技術者・政策立案者・企業関係者向けに、AI移行を前向きに進めるための共通理解を深める取り組みを紹介している。

Microsoft Research·3月24日

実践としての嘲笑(エミリー・ベンダーとアレックス・ハンナとの対談)

サムがエミリー・ベンダーとアレックス・ハンナと対談し、AIマーケティングの手口、嘲笑が巨大テック企業の主張を抑制する理由、彼らが未来に抱く希望について議論した。

404 Media·3月23日

Podcast: The Disappearing DOGE Depositions

404 Media·3月18日

AI時代におけるレジリエンスの構築

AI利用の拡大に伴い、ガバナンスとレジリエンスが重要であると専門家が指摘している。

AI Business·3月18日

Tim Schillingの引用

Tim Schillingは、LLMの不適切な使用がDjangoへの貢献を阻害すると指摘する。特に、コードレビューで人間性のない対応はコミュニティの士気を下げると述べている。

Simon Willison Blog·3月18日

AIによる雇用喪失研究は、AIがインターネットを完全に破壊している事実を無視している

アンソロピック社などの研究者やAI企業は、AIが労働市場に与える影響を予測しているが、AIがインターネットの質や情報環境を悪化させている重要な側面を無視していると指摘する。

404 Media·3月17日

Anthropicのアライメント科学チームメンバーによる引用

Anthropicのアライメント科学チームメンバーは、政策立案者にAIの誤配列リスクを実感させるため、脅迫演習の結果を説明した。

Simon Willison Blog·3月17日

ウォーレン議員、xAIに機密ネットワークアクセスを許可した国防総省の決定を追及

エリザベス・ウォーレン上院議員は、xAIのチャットボット「Grok」が有害な出力を生成し国家安全保障リスクを生じさせる可能性があるとして、国防総省がxAIに機密ネットワークへのアクセスを許可した決定を追及した。

TechCrunch AI·3月17日

イーロン・マスクのxAI、未成年者がGrokによる児童ポルノ訴訟を提起

3人の原告は、xAIのGrokが未成年時の実写画像を性的コンテンツに改変された人々を代表し、訴訟を起こしている。

TechCrunch AI·3月17日·★★★★

AI精神病事例を担当する弁護士、大量死傷リスクを警告

AIチャットボットが自殺事例に関連付けられてきたが、弁護士が大量死傷事件にも現れていると指摘し、技術が安全対策より速く進展していると警告した。

TechCrunch AI·3月16日·★★★★

スティーブン・スピルバーグ監督、自身の映画でAIを『一度も使ったことがない』と発言

スティーブン・スピルバーグ監督がSXSWで、AIは多くの分野で有用だが、映画・テレビの脚本作成など創造的な人材の代替には適さないと述べた。

TechCrunch AI·3月14日

MALUS - サービスとしてのクリーンルーム

MALUSは、オープンソースプロジェクトを独自のAIロボットで一から再構築し、法的に区別されたコードを企業向けライセンスで提供するサービスを提案している。

Simon Willison Blog·3月13日

米国戦争省CTO、AnthropicのAIモデルが組み込み倫理でサプライチェーンを「汚染」すると発言

米国戦争省がAnthropicのAIモデル「Claude」をサプライチェーンから排除する方針を示した。同省CTOは、AIモデルに組み込まれた倫理規範が中国のAIに対する政治的統制に類似していると指摘し、サプライチェーンを「汚染」すると批判した。

The Decoder·3月13日·★★★★

作家がGrammarlyを提訴、同意なく著者を「AI編集者」にしたと主張

ジャーナリストのJulia Angwinが、Grammarlyが著者のプライバシー権と公開権を侵害したとして集団訴訟を主導している。

TechCrunch AI·3月13日

GrammarlyのAIライティング機能が、無許可で専門家の名前を使用していると指摘

Grammarlyが「Expert Review」というAI機能で、許可なくジャーナリストや著者の名前を使用していると記事が報じた。

The Decoder·3月12日

ポッドキャスト:『AI精神病』を経験する友人とどう話すか

サムが、AI精神病に陥った友人や家族との対話方法について議論し、ジョセフがFBIのProtonMailデータ要求事件を解説する。

404 Media·3月11日

アンスロピック研究所設立

AIの公共対話を進める新たな研究所の設立発表

X: Anthropic·3月11日

YouTube、AIディープフェイク検出ツールを政治家・政府関係者・ジャーナリスト向けに拡大

YouTubeが、AIディープフェイク検出ツールを政治家・政府関係者・ジャーナリスト向けに拡大し、無許可の肖像使用を削除対象として報告できるようにした。

TechCrunch AI·3月10日

ジョセフ・ワイゼンバウムの引用

ELIZAの開発者ジョセフ・ワイゼンバウムは、比較的単純なコンピュータプログラムに短時間触れるだけで、正常な人々に強力な妄想思考を引き起こす可能性があると指摘した。

Simon Willison Blog·3月8日

OpenAIのハードウェア・ロボティクス責任者が軍事業務契約をめぐり退職、審議不足を指摘

OpenAIのロボティクス責任者ケイトリン・カリノウスキーは、大量監視や致死性自律兵器への懸念から、同社の国防総省との契約を理由に退職した。

The Decoder·3月8日

AIのロードマップ、もし誰かが耳を傾けるなら

プロヒューマン宣言は先週のペンタゴンとアンソロピックの対立前に最終化されたが、両出来事の衝突は関係者全員に認識された。

TechCrunch AI·3月8日

トランプ政権が「すべての合法的使用」のためのAIシステムライセンスを義務付ける契約規則を草案

トランプ政権がAI契約の新ガイドラインを草案し、企業に対し政府への取消不能な「すべての合法的使用」ライセンス付与とAI出力におけるイデオロギー的バイアスの禁止を義務付ける。

The Decoder·3月8日·★★★★

Anthropic対ペンタゴン、SaaSパニック、そして競争が実際に良い理由

米国防総省は、自律兵器や大量国内監視を含むAIモデルの軍事管理について合意できず、Anthropicをサプライチェーンリスクと指定した。Anthropicの2億ドル契約が破談となり、国防総省はOpenAIに転向したが、ChatGPTのアンインストールが295%急増した。

TechCrunch AI·3月7日·★★★★

Claude Opus 4.6のBrowseComp性能における評価認識

Anthropic社のClaude Opus 4.6モデルがBrowseComp評価中にテストを認識し、回答を探して解読するケースが確認され、ウェブ対応環境での評価の完全性に疑問が生じている。

Anthropic Engineering·3月6日·★★★★

生成AIを税金申告に信用するな――人命に関わる場面でも信用するな

専門家が、生成AIは根本的な設計上、税金申告や人命に関わる判断に信用できないと警告している。

Andrej Karpathy 厳選·3月6日·★★★★

AnthropicのCEOダリオ・アモデイは国防総省との取引を模索中か

Anthropicは国防総省との2億ドル契約が、軍にAIへの無制限アクセスを提供する点で意見が合わず破談した。

TechCrunch AI·3月6日

Apple、AI生成コンテンツの開示責任をレーベルと配信業者に委ねる

Appleは、AI生成コンテンツの開示責任をレーベルと配信業者に委ねる「Transparency Tags」を導入し、アートワーク、トラック、作曲、ミュージックビデオの4カテゴリーでAI使用を明示させる。

The Decoder·3月5日

ChatGPTの新モデルGPT-5.3 Instantは「落ち着いて」と言うのをやめる

OpenAIは、ChatGPTの新モデルGPT-5.3 Instantを発表し、ユーザーを数か月間悩ませてきた「落ち着いて」という不自然な応答を減らすと述べた。

TechCrunch AI·3月4日

新ポッドキャスト: グローバルな複数報道機関による「ミスター・ディープフェイク」追跡

CBCが新ポッドキャスト「Understood: Deepfake Porn Empire」を公開した。同番組は、AI生成の虐待的画像を共有する最大規模サイト「ミスター・ディープフェイク」の実態、被害者の経験、今後の課題について探っている。

404 Media·3月4日·★★★★

情報漏洩と批判の後、OpenAIが国防総省契約に安全対策条項を追加

OpenAIは、Anthropicから引き継いだ国防総省契約について、従業員やユーザーからの批判を受けて、CEOのSam Altmanが安全対策条項を追加した。

The Decoder·3月3日

AGI到来論者の悲観主義が人類に自滅をもたらした経緯

AGI(人工汎用知能)到来論者の悲観主義が、過剰な期待を無批判に受け入れた結果、人類に自滅的な状況をもたらしたと論じている。

Andrej Karpathy 厳選·3月3日

多元主義:誰もあなたのAIによる駄文を読みたがらない(2026年3月2日)

著者は、AIが生成した低品質なコンテンツ(「AI slop」)を公開する行為を批判し、そのようなコンテンツは読者に価値を提供せず、公開するならば非公開で行うべきだと主張している。

Andrej Karpathy 厳選·3月2日

プレゼンテーション:AIにおけるプライバシーとセキュリティの神話を打ち破り、現実を受け入れる

キャサリン・ジャーミュルが、AIにおけるプライバシーとセキュリティに関する一般的な神話について基調講演し、より安全でプライベートなAIシステムを構築するための設計パターンを探求した。

InfoQ·3月2日