AI Snake Oil の最新記事
研究20件の記事
frontier AI 能力を測定するオープンワールド評価
研究者らは、主要ベンチマークが飽和した現在、AI が実製品開発や科学実験など現実世界でどのように機能するかを評価する「オープンワールド評価」を導入した。この論文は、その定義と手法について詳述している。
新論文:AIエージェントの信頼性科学へ向けて
Stephan Rabanserらは、生産性向上を目的としたAIエージェントの信頼性測定ツールが業界に欠如している現状を指摘し、その科学的研究への取り組みを提案した。
AIは自動的に法律サービスを安くしない
ハーバード法科大学院の学生との共著で、AIが知識労働を変革するとする見通しに対し、法律サービス分野では自動的な価格低下が起こらない可能性を示唆している。
モラベックのパラドックスの事実確認
著者はYouTubeチャンネルでAI開発を分析し、最近の動画で「人間には難しいタスクはAIに簡単」とされるモラベックのパラドックスを検証した。その結果、このパラドックスは多くの研究者が繰り返すものの、実証試験が行われていないことが判明した。
AIを通常の技術として理解するためのガイド
著者は「AIを通常技術として」の反響を受け、短期的な議論から離れ、AIの中長期的な未来と影響について、根拠のある分析を提供する方向へ焦点をシフトした。
AIは科学を遅らせるのか?
AIリーダーは癌治療や寿命延伸など科学の劇的進歩を予測する。米国の科学研究費削減背景下で、AIが多数の科学者を代替し研究を加速すると見られる。しかし、この「常識的な」楽観論が実際に科学の進捗を遅らせる可能性も示唆されている。
AGIはマイルストーンではない
OpenAIの最新モデルo3の公開をきっかけに、AGI達成論争が再燃している。著者はAGI定義の不一致を指摘しつつ、AGIはAIシステムの性質や影響に断絶をもたらす「マイルストーン」ではないと主張する。
AIを通常の技術として捉える
著者は、AIを特別な存在ではなく「通常の技術」として位置づけるビジョンを示す論文を発表した。この考え方は書籍化され、Knight First Amendment Instituteでも公開されている。2025年9月には、この論文を理解するための補完ガイドも併せて公開された。
AIの進歩は鈍化しているのか?
著者らは、GPT-4以降の「スケーリングでAGIへ」という楽観論が後退し、業界の常識が変わったと指摘する。最近の報道により、モデル規模の拡大がもはや性能向上を保証しない可能性が浮上し、AI開発のパラダイムシフトを示唆している。
選挙ディープフェイク78件を分析。政治的誤情報はAIの問題ではない
著者は2024年米国大統領選挙に関連する78件のディープフェイクを分析した。その結果、政治的誤情報の主要因はAI生成ではなく、人間による意図的な操作にあると結論付けた。これは「AIが社会を不安定化させる」という一般的な懸念とは異なる実態を示している。
英国の肝臓移植マッチングアルゴリズムは若年層を体系的に除外しているか?
Narayanan氏らは、英国の肝臓分配アルゴリズムが年齢により差別し、一部の若年患者が移植を受けられない可能性を示した。予測アルゴリズムの意思決定には本質的な欠陥があり、多くのケースで拒否されるべきだと主張する。
『AIスネークオイル』書籍および執筆プロセスに関するFAQ
書籍「AIスネークオイル」の出版後、読者から多くの質問が寄せられている。著者はAIの有用性を認めており、反技術的な立場ではないと明言。本書はAIの過度な hype と「スネークオイル」的な誇張に焦点を当てている。
AIは計算の再現性を自動化できるか?
Sakana AIが発表した「AI Scientist」は完全自動の科学発見システムとされるが、新規性の検証や人間による査読が行われておらず、既存研究の再述や品質保証に課題がある。
「AIスネークオイル」の書籍をオンラインで読む
著者は書籍『AI Snake Oil』の第1章を公開した。この30ページの序論は書籍の主要な主張を要約しており、購入を促す目的で提供されている。2025年9月時点では出版から1年が経過し、関連コンテンツや新前書きも追加されている。
AI企業は神創造から製品構築へ転換した。それは良いことだ
AI企業はハードウェアとデータセンターに1兆ドルを投じているが、成果が伴わずAIバブル懸念が高まっている。本記事は、これらの企業の誤りとその是正策を分析し、業界の現状診断を示す。
政策決定にはAIの存続危機確率の不確かさは信頼しすぎである
研究者間で合意がない中、政府はAIの存続危機をどの程度重視すべきか。証拠に基づく政策立案アプローチを示すシリーズの第1報で、危機が推測的である一方、政府は優先順位付けを迫られると指摘する。
新論文:実用的なAIエージェントとは
大規模言語モデルを活用し、ウェブ検索やコード実行などのツールを使用して現実世界で行動するAIエージェントの研究論文が発表された。この分野の目標は、複雑なタスクを正確に処理しユーザーの意図を理解するSiriのようなアシスタントの実現である。
AIスケーリングの神話
記事は、大規模言語モデル(LLM)のスケーリング法則が継続すれば人工一般知能(AGI)に到達するとする見解を批判している。著者は、この予測可能性は研究結果の誤解であり、LLMの限界を示す兆候があるとして、現在のスケーリング至上主義に疑問を呈している。
科学者はAIを神託ではなく道具として使うべきである
著書『AI Snake Oil』の筆者は、メディアや企業だけでなく研究者自身もAI過大評価を生んでいると指摘する。Nature誌の材料発見論文は誤りだったことが判明し、AIの限界を示す例として挙げている。