#llm のAIニュース
410件の記事
Gemma 4:バイト単位で最も能力の高いオープンモデル
GoogleがGemma 4を発表した。高度な推論とエージェントワークフロー向けに設計された、これまでで最も知的なオープンモデルである。
自己維持可能なCI ── Goテストの失敗をClaudeで自動修復する仕組み
LayerXのshibutani氏が、Goテストの失敗を検知するとClaudeがログを分析し、担当チームに通知して修正PRを作成する自動修復システムを構築した。
datasette-llm 0.1a6
Datasetteプロジェクトが、LLM統合ツール「datasette-llm」のバージョン0.1a6をリリースした。デフォルトモデルの設定を簡素化し、ドキュメントを改善した。
datasette-enrichments-llm 0.2a1
DatasetteのLLMエンリッチメントプラグインがバージョン0.2a1をリリースし、エンリッチメントをトリガーするアクター情報をllm.modeメソッドに渡す機能を追加した。
GPT-5.4 miniがCopilot Studentの自動モデル選択で利用可能に
GitHubがCopilot StudentプランでGPT-5.4 miniを自動モデル選択機能を通じて一般提供開始した。このモデルはVisual Studio Code、Visual Studio、JetBrains IDE、Xcode、EclipseのGitHub Copilot Chatで利用できる。
datasette-extract 0.3a0
Datasetteがdatasette-extractプラグインのバージョン0.3a0をリリースし、datasette-llmを統合してモデル管理を改善した。
バイトダンス、2027年卒向け大規模言語モデル人材の新卒採用を開始(インターン含む)
バイトダンスが、2027年卒の学生を対象に、大規模言語モデル分野の人材採用を開始した。同社は「知能の限界に挑戦する」と掲げ、新卒・インターン採用を実施している。
datasette-enrichments-llm 0.2a0
Datasette-enrichments-llmプラグインがバージョン0.2a0をリリースし、datasette-llmを介してLLMモデルの設定・管理を可能にした。これにより、データ強化に使用するモデルを指定できるようになった。
datasette-llm-usage 0.2a0
Datasetteプロジェクトが、LLM使用状況追跡プラグイン「datasette-llm-usage」のバージョン0.2a0をリリースした。このリリースでは、割り当てと推定価格設定に関する機能を削除し、それらを別プラグイン「datasette-llm-accountant」に移管した。また、モデル設定のために「datasette-llm」への依存を追加した。
datasette-llm 0.1a5
Datasette-LLMプロジェクトがバージョン0.1a5をリリースした。llm_prompt_context()プラグインフックがチェーン内のプロンプトも追跡可能になり、ツール呼び出しループの監視に使用できるようになった。
Soohoon Choiの引用
Soohoon Choiは、経済的インセンティブによりAIモデルが優れたコードを書くようになると主張する。優れたコードは生成・維持コストが低く、AIモデル間の競争が激しい中、信頼性の高い機能を迅速に提供できるシンプルで保守性の高いコードを生成するモデルが勝者となるため、市場の力学が優れたコードの普及を促すと述べている。
GitHub CopilotにおけるClaude Sonnet 4の廃止予定
GitHubは2026年5月1日に、GitHub Copilot全機能でClaude Sonnet 4モデルを廃止し、代替としてClaude Sonnet 4.6への移行を推奨している。管理者は設定で代替モデルへのアクセスを有効化する必要がある。
datasette-llm 0.1a4
Datasette-LLMがバージョン0.1a4をリリースし、目的別に異なるAPIキーを設定する機能を追加した。例えば、エンリッチメント専用のAPIキーでgpt-5.4-miniを使用できるようになった。
llm-all-models-async 0.1
Simon Willison氏が、LLMプラグイン向けの非同期モデル定義機能をリリースした。API連携モデル向けの非同期バリアントを提供する。
llm 0.30リリース
Simon Willison氏が開発するLLMツールのバージョン0.30がリリースされた。今回のアップデートでは、register_models()プラグインフックにmodel_aliasesパラメータが追加され、他のプラグインが登録したモデルやエイリアスを参照できるようになった。
llm-echo 0.4
Simon Willison氏が、LLMプロンプトのレスポンスにinput_tokensとoutput_tokensフィールドを追加したllm-echo 0.4をリリースした。
llm-echo 0.3
Simon Willison氏がllm-echo 0.3をリリースし、ツール呼び出しテスト機能と生レスポンステスト機能を追加した。
世界のウェブサイトの1/5にサービスを提供するCloudflareがKimi K2.5を選択し、77%のコスト削減を実現
CloudflareがKimi K2.5を採用し、コストを77%削減した。この選択は、大規模なインフラストラクチャを持つ企業がAI技術を活用して効率化を図る事例を示している。
Mastraをバックエンド+AIエージェントサーバーとして本番運用した実践報告
AIクリエイティブカンパニーBPO事業部のエンジニア佐藤氏が、MastraをバックエンドとAIエージェントサーバーとして本番環境で運用した実践的な知見を共有している。
ProText:長文テキストにおける(誤った)性別表現を測定するためのベンチマークデータセット
研究者らは、多様なスタイルの長文英語テキストにおける性別表現と誤った性別表現を測定するデータセット「ProText」を発表した。このデータセットは、要約や書き換えなどのテキスト変換における性別表現の問題を調査するために設計されている。
TRL v1.0:分野の前提が崩れても機能するポストトレーニングライブラリ
Hugging Faceが、AIモデルのポストトレーニング用ライブラリ「TRL v1.0」をリリースした。このライブラリは、研究分野の前提が変化しても柔軟に対応できる設計となっている。
WINTICKETにおけるインシデント避難訓練の仕組みと1年間の運用知見
WINTICKETが、AIを活用したシナリオ生成とGUIベースのツールを用いたインシデント避難訓練の仕組みを構築し、1年間の運用で得た知見を共有している。
datasette-llm 0.1a3
Datasette-LLMプロジェクトがバージョン0.1a3をリリースし、特定の目的に対して利用可能なLLMを設定する機能を追加した。これにより、プラグインごとに使用できるモデルを制限できるようになった。
AnthropicのMythosがAI研究所と企業に意味すること
Anthropic社は、実際の性能は不明ながら、新モデル「Mythos」を発表し、ベンダーとして多様化を図っていることを示している。
llm-mrchatterbox 0.1
Simon Willison氏が、ローカルPCで実行可能なヴィクトリア朝倫理訓練済みモデル「Mr. Chatterbox」の初版リリースを発表した。
AIによる複数リポジトリ横断設計の自律化への道
AmebaLIFE事業本部エンジニアのsatomin氏が、AIを用いて複数リポジトリにまたがる設計を自律的に行う手法について解説している。
研究:AIの追従行動は人々の謝罪意欲を低下させ、主張を強める
サイエンス誌の研究が、AIモデルは人間より約50%多くユーザーの意見に同調し、これによりユーザーは謝罪意欲が低下し、自己主張を強める傾向があると報告した。
Googleの新Gemini API Agent SkillがAIモデルのSDK知識ギャップを解消
GoogleがGemini API Agent Skillを発表した。この機能は、トレーニング後に更新された自社SDKの情報をAIモデルに提供し、コーディング結果を大幅に改善する。
AnthropicのClaude、有料消費者での人気が急上昇
AnthropicのAIアシスタントClaudeの有料購読数が今年2倍以上増加し、推定ユーザー数は1800万から3000万人と報告されている。
Anthropicの新データ:AIスキルは時間とともに向上し、不平等格差を拡大する可能性
Anthropicが発表した経済指標によると、AIモデル「Claude」の利用期間が長いほど結果が向上し、既存の不平等を拡大する可能性がある。
SwiftUIアプリをヴァイブコーディングするのはとても楽しい
筆者が新しいM5 MacBook ProでローカルLLMを実行し、Activity Monitorに不満を持ち、パフォーマンス監視ツールをヴァイブコーディングで開発した。
ClaudeがHF論文CLIで自動研究
ClaudeがHugging Face論文CLIを使用して自動研究を行う方法を紹介
GLM-5.1が全Coding Planユーザーに開放
智譜がGLM-5.1をGLM Coding Planの全ユーザー(Lite/Pro/Max)に開放した。
Anthropic、データ流出で存在が明らかになったリークモデルが推論能力で「段階的変化」を記録したと確認
Anthropicはセキュリティミスにより最高性能のAIモデルを誤って公開し、同社はこのモデルが推論能力で「段階的変化」を達成したと確認した。OpenAIが次世代モデルを準備する中、両社は上場前に最高技術を競っている。
ChatGPTでmRNA生成の可能性
Sam AltmanがChatGPTとLLMを活用したmRNA生成の会議について言及
エージェント能力を強化し長文脈対応のABEJA-Qwen3-14B-Agentic-256k-v0.1を公開
ABEJAは、経済産業省とNEDOのプロジェクト「GENIAC」3期で開発した大規模言語モデル「ABEJA-Qwen3-14B-Agentic-256k-v0.1」を公開した。同モデルは、長文脈処理性能とエージェントとしての能力向上に重点を置いている。
AIで1日でJSONataを書き直し、年間50万ドルを節約
Reco.ai社がAIを活用してJSONataのJSON式言語を1日でGo言語で再実装し、年間50万ドルのコスト削減に成功した。
Gemini 3 Proの提供終了
GitHubは2026年3月26日、GitHub Copilotの全機能でGemini 3 Proモデルの提供を終了し、Gemini 3.1 Proへの移行を推奨している。
Qworld論文発表
LLM評価基準に関する新論文が公開されました
SageMaker Unified StudioとS3を用いた非構造化データによるLLMファインチューニングの加速
AWSがSageMaker Unified StudioとS3の連携を発表し、S3に保存された非構造化データを機械学習やデータ分析に活用する方法を紹介した。
Gemini 3.1 Flash Live 配信開始
Gemini LiveとGoogle検索でGemini 3.1 Flash Liveの提供開始
Gemini Live 3.1 Flash 提供開始
Google AIがGemini Live 3.1 Flashの提供を開始。AI開発者向け新機能。
Gemini 3.1 Flash Live リリース
Google AIがGemini 3.1 Flash Liveを本日リリース、開発者向け新機能
Gemini Live 3.1 Flash 公開
Gemini Liveの新バージョン3.1 Flashが利用可能に
大規模言語モデル訓練における下流タスク指標のスケーリング特性の再検討
研究チームが、大規模言語モデルの訓練予算からベンチマーク性能のスケーリングを直接モデル化する枠組みを提案し、固定トークン対パラメータ比率では単純なべき法則が複数の下流タスクの精度を正確に記述できることを発見した。
スピードを落とすことについての考察
Mario Zechner氏が、現在のエージェント工学のトレンドについて、過度なスピード追求と規律の欠如を批判している。
datasette-llm 0.1a1
Datasetteプロジェクトが、他のDatasetteプラグインがLLMのモデルを利用できるようにする基本プラグインの新バージョンをリリースした。
LiteLLMハッキング:あなたは47,000人のうちの一人でしたか?
Daniel HnykがBigQuery PyPIデータセットを使用し、悪意のあるLiteLLMパッケージがPyPIで公開されていた46分間のダウンロード数が約47,000件あったことを明らかにした。
OpenAIモデル仕様の詳細
OpenAIがモデル仕様のアプローチについて詳細を公開
GoogleがAgile Robotsと提携し、AIロボティクス分野を強化
GoogleはAgile Robotsと提携し、Geminiモデルを同社のロボットハードウェアに導入することで、AIを実世界環境に統合する取り組みを加速させる。