Interconnects の最新記事

研究

20件の記事

今日のオープンとクローズドモデルのパフォーマンス格差を読む

記事は、オープンソースモデルがクローズドモデルに永続的に追従する現状を分析し、単一の数値で表される格差が実際の能力の微妙な動態を見誤らせると指摘する。主要指標であるArtificial Analysis Intelligence Indexを用いて、最先端の言語モデル能力を評価する。

Interconnects·4月21日·★★★★

2026年中盤におけるオープンモデルへの私の予測

著者は、オープンソースモデルがクローズドラボのモデルに追いつけるかという問いについて、否定的な見解を示す。両者の能力差が縮まることはあっても完全には追いつかず、長期的な安定したバランスの形成時期は不透明であると予測している。

Interconnects·4月16日·★★★★

私が構築してきたもの:ATOMレポート、ポストトレーニング講座、書籍の完成、そして継続的な研究

著者はATOMレポート、RLHF関連書籍の完成、ポストトレーニング講座の制作、および技術研究といった最近の取り組みを総括し、その目的と成果について説明している。

Interconnects·4月15日

オープンモデルコンソーシアム設立の必然性

スタンフォード大学のPercy Liang氏との対話から、業界全体で利用される基盤オープンモデルを企業が共同出資するコンソーシアムが必然的に設立されると結論付けた。Nvidiaの試みはあるものの、長期的な安定した資金調達のためにはコンソーシアム形態が唯一の道である。

Interconnects·4月11日

Claude Mythosと誤解されたオープン重みモデルへの恐怖

Anthropicはサイバーセキュリティに強いClaude Mythosを発表し、オープン重みモデルへの批判が再燃した。批判者は、この強力なモデルの公開により攻撃者が容易に悪用でき、デジタルインフラが対応しきれないと懸念している。

Interconnects·4月10日

Gemma 4とオープンモデルの成功要因

著者は、2026年におけるGemma 4の公開モデル評価が困難な理由を分析する。過去のLlamaやQwenシリーズとの比較を通じて、オープンモデルが成功し研究コミュニティを活性化させるための条件について考察している。

Interconnects·4月4日

最新オープンアーティファクト(第20号):新組織、新モデルタイプ!Nemotron Super、Sarvam、Cohere Transcribeなど

本記事は、QwenやDeepSeekなどの大規模モデルに偏らない多様なオープンソースモデルを紹介する。OCR、RAG検索、音声文字起こし、コード編集など多様な用途とモーダリティに対応するモデルが網羅されており、開発者にとって参考となる。

Interconnects·3月30日

損失を伴う自己改善

AI業界では急速な発展や特異点、再帰的自己改善が議論されている。数社のラボがモデルとリソースを独占し、寡占状態にある。現在のAIツールはエンジニアリングや研究職を急激に変革し、多くの技術的課題の解決が容易になっている。

Interconnects·3月23日

GPT 5.4はCodexにとって大きな一歩

筆者はGPT 5.4のレビューを遅延させた理由として、エージェント構築における重要軸の考察に時間を割いたことを明かす。従来のベンチマークが正解率という単一スコアに依存する限界を指摘し、より解釈可能な評価指標の必要性を示唆している。

Interconnects·3月18日

オープンモデルの次なる展開

2025年、DeepSeek R1の成功を契機に多くの企業がオープンモデル戦略を採用し、AIエコシステムでの影響力確保を図っている。しかし、MetaのLlamaのような事例を除き、オープンモデル構築には明確な金銭的動機を持つ企業が極めて少ないのが実情である。

Interconnects·3月16日

オープンモデルと政府規制に関するディーン・ボールの視点

デイン・ボールは、Anthropicと米国防総省の対立がオープンモデルへの認識転換点になると指摘する。AI強化に伴い既存権力構造との関係が問われ、政府は「重みを持たない=脳も持たない」というオープンモデルの主張が抱える根本的な問題に直面する。

Interconnects·3月6日

Olmo Hybridと将来のLLMアーキテクチャ

Olmoチームは、QwenやKimiなど既存のオープンウェイトモデルで注目されるハイブリッドアーキテクチャを採用した「Olmo Hybrid」を発表し、この設計が業界標準になりつつあることを示唆している。

Interconnects·3月6日

最新オープンアーティファクト(第19号):Qwen 3.5、GLM 5、MiniMax 2.5 — 中国ラボの最前線への最新のアタック

Qwen、MiniMaxなど中国主要ラボが新フラッグシップモデルを相次ぎ公開。DeepSeek V4のリリースも期待される中、Relative Adoption Metricsを用いてこれらの新モデルの採用状況を比較・追跡している。

Interconnects·3月4日

中国のLLMにおいて蒸留は本当に重要なのか?

記事は、強力なモデルの出力で弱モデルを学習する「蒸留」が米中AI競争で頻繁に議論されていると指摘。専門的な知識蒸留の定義を確認し、中国の大規模言語モデル開発においてこの手法がどの程度重要かを考察する。

Interconnects·2月25日

オープンモデルは常に追従状態にある

Z.aiのGLM 5を含む中国発のオープンモデルが、クローズド型最前線モデルに迫る議論を巻き起こしている。過去12ヶ月でオープンモデルの主要供給元はMetaから中国企業へシフトし、定期的な技術追従の動きが続いている。

Interconnects·2月18日

Opus 4.6、Codex 5.3、そしてベンチマーク後の時代

OpenAIとAnthropicは2月5日、それぞれコーディング支援モデル「GPT-5.3-Codex」と「Claude Opus 4.6」を発表した。Anthropicは既存のClaude Codeによる性能向上で注目を集めており、ソフトウェア開発の変革とML研究の加速が示唆されている。

Interconnects·2月9日

なぜNvidiaはオープンモデルを構築するのか:ブライアン・カタンザロに聞く

Nvidiaは2025年にオープンモデルプログラムを大幅に強化し、高品質なモデルやデータセットの公開を進めている。技術担当副社長のブライアン・カタンザロ氏は、12月に公開された「Nemotron 3 Nano」や今後の大型モデルについて説明し、オープン化が同社のビジネスに利益をもたらす理由を語った。

Interconnects·2月5日

最新オープンアーティファクト(第18号):Arceeの400B MoE、LiquidAIの過小評価された1Bモデル、新型Kimi、そして活発な月の予感

2025年1月はモデルリリースが低調だったが、DeepSeek V4やClaude Sonnet 5の公開期待が高まっている。Arceeの400B MoEやLiquidAIの1Bモデルなど、注目のオープンソースモデルが注目される中、業界は今後の活発な動向を見据えている。

Interconnects·2月2日

LLM時代の雇用市場に関する考察

AI分野の求人側と求職者の間で、採用難航と高い機会コストという相互の課題が存在する。特に既存テックワーカーにとって、魅力的な待遇でも現在の職を離れるリスクが大きい状況が続いている。

Interconnects·1月31日

Arcee AI、米国産オープンモデルに全集中

スタートアップのArcee AIは、特定ドメイン向けポストトレーニングで収益を上げている。今後は米国産の大型高性能オープンモデルを事前学習し、市場での実証とニッチの埋め合わせを目指す。

Interconnects·1月28日