AWS Machine Learning Blog の最新記事
公式84件の記事
カスタムLLMのデプロイを加速: OumiでファインチューニングしAmazon Bedrockにデプロイ
OumiのDavid StewartとMatthew Personsが、オープンソース大規模言語モデルの実験から本番環境への移行における課題を解決する方法を紹介。LlamaモデルをOumiでファインチューニングし、Amazon Bedrockにデプロイする手順を示す。
NVIDIA Nemotron 3 NanoがAmazon Bedrockで完全管理サーバレスモデルとして利用可能に
NVIDIAは、同社のNemotron 3 NanoモデルがAmazon Bedrockで完全管理・サーバレスモデルとして利用可能になったと発表した。
インドでAmazon Bedrock経由でAnthropic Claudeモデルにグローバルなクロスリージョン推論でアクセス可能に
Amazonが、インドの顧客がAmazon Bedrockを通じてAnthropicのClaudeモデルをグローバルなクロスリージョン推論で利用できるようにした。これにより、生成AIアプリケーションの大規模運用が容易になる。
Amazon Lexのマルチ開発者CI/CDパイプラインで組織成長を促進
AWSがAmazon Lexの開発効率向上のため、複数開発者が同時作業可能なCI/CDパイプラインを発表した。これにより設定競合を解消し、反復サイクルを高速化できる。
SageMaker AIエンドポイントでホストされたLLMを使用したStrandsエージェント向けカスタムモデルプロバイダーの構築
企業はAmazon SageMaker AIリアルタイムエンドポイントでカスタムLLMを展開しているが、Strandsエージェントとのレスポンス形式の互換性に課題がある。
エンタープライズアプリケーションにAmazon Quick Suiteチャットエージェントを組み込む
Amazon Quick Suiteは、企業がCRMやサポートコンソールなどの業務ツール内に、セキュアな埋め込みチャット機能を迅速に実装できるサービスを提供する。これにより、ユーザーは別ツールへの移動なしにAI対話を利用できる。
Amazon Nova基盤モデルで強力なコールセンター分析を実現
Amazonは、コールセンターの分析と運用の質・効率を向上させるために、生成AIを活用した基盤モデル「Nova」を提供する。これにより、顧客サポート担当者や管理者は、より微妙な洞察を得て、コールセンターデータの活用方法を再定義できる。
リコーがAWS上で構築したスケーラブルなインテリジェント文書処理ソリューション
リコーのジェレミー・ジェイコブソンとラド・フレックが、生成AI、サーバーレスアーキテクチャ、標準化フレームワークを組み合わせて文書処理のスケーリング制限を克服する方法を説明している。リコーはAWS GenAI IDPアクセラレーターを使用して反復可能で再利用可能なフレームワークを構築した。
AWSのAmazon Novaを使用したスケーラブルなバーチャル試着ソリューション構築:パート1
Amazonは、小売業者が顧客体験を向上させるためのバーチャル試着技術をAWSのAmazon Novaで実装する方法を解説する連載記事の第1部を公開した。
LendiがAmazon Bedrockを使用したエージェントAIで顧客の借り換えプロセスを16週間で刷新
Lendi Groupは、Amazon Bedrockを活用したエージェントAIを導入し、住宅ローンの借り換えプロセスを16週間で刷新した。同社は、金利変動や個人事情の変化に対応しにくいという顧客の課題を解決した。
TinesがAmazon Quick Suiteでセキュリティ分析を強化する方法
TinesはAmazon Quick Suiteを活用し、複数アプリに分散するセキュリティデータを自動相関・対応することで、組織の異常ログイン検知と対応を迅速化する。
知性を損なわずに特化型AIを構築:Nova Forgeデータ混合の実践
大規模言語モデル(LLM)は一般タスクで優れるが、専門作業には課題がある。Supervised Fine-Tuning(SFT)はLLMを組織文脈に適応させ、Parameter-Efficient Fine-Tuning(PEFT)は一部パラメータのみ更新し効率的な学習を実現する。
Amazon SageMaker AIでClaudeとLangGraph、管理型MLflowを使用したサーバーレス会話型AIエージェントの構築
AWSが、Claude LLMとLangGraph、管理型MLflowをAmazon SageMaker AIで統合し、構造化されたサーバーレス会話型AIエージェントを構築する方法を提案している。これにより、顧客サービスの注文照会・キャンセル・状況確認などで、自然言語理解と信頼性を両立できる。
プロのように安全な生成AIアプリケーションを構築する:Amazon Bedrock Guardrailsのベストプラクティス
Amazon Bedrock Guardrailsは、生成AIアプリケーションの安全性と精度・パフォーマンス・コストのバランスを取るための設定方法を提供する。厳しすぎるガードレールは正当なユーザーリクエストを妨げ、緩すぎると有害コンテンツやデータ漏洩のリスクがあるため、適切な設定が重要である。
実世界でのCOBOL近代化から得られた教訓
IBMの記事は、AIがメインフレームアプリケーション近代化を加速するが、ソースコードだけでは不十分で追加の文脈が必要だと指摘し、400以上の企業顧客との経験から、リバースエンジニアリングと再構築の2段階があると説明している。
Amazon Novaの強化学習ファインチューニング:フィードバックを通じてAIを教育
Amazonは、汎用AIと特定のビジネスニーズのギャップを埋めるため、Amazon Novaモデルにドメイン知識を組み込む強化学習ファインチューニング手法を開発した。
大規模モデル推論コンテナ - 最新機能と性能向上
OpenAIが大規模言語モデルの推論コンテナを発表し、トークン数の増加に伴うコストと性能の課題に対応する最新機能と性能向上を実現した。
Amazon SageMaker AIとAmazon BedrockでvLLMを使用して数十のファインチューニングモデルを効率的に提供
vLLMでMixture of ExpertsモデルのマルチLoRA推論を実装し、カーネルレベルの最適化を行い、効率的なモデル提供方法を解説。GPT-OSS 20Bを例に使用。
Amazon Bedrock AgentCoreとAmazon Bedrock Knowledge Basesを使用したインテリジェントイベントエージェントの構築
Amazon Bedrock AgentCoreを用いて、参加者の好みを記憶し、時間とともにパーソナライズされた体験を構築する生産準備完了のイベントアシスタントを迅速にデプロイする方法を紹介。
Amazon Rekognition、Amazon Neptune、Amazon Bedrockを使用したインテリジェントな写真検索システムの構築
AWS CDKを活用し、Amazon Rekognitionで顔・物体検出、Amazon Neptuneで関係性マッピング、Amazon BedrockでAIキャプション生成を統合した包括的な写真検索システムの構築方法を紹介。
Amazon SageMakerトレーニングジョブでveRLとRayを使用してCodeFu-7Bをトレーニングする方法
競技プログラミング向けの70億パラメータモデルCodeFu-7Bを、大規模言語モデル向けの効率的なトレーニングライブラリveRLとGRPOを用いてAmazon SageMakerでトレーニングする方法を紹介。
AWSでDottxt Outlinesを使用してLLMから構造化出力を生成する
AWS MarketplaceのAmazon SageMakerでDottxtのOutlinesフレームワークを実装し、LLMからの構造化出力を実現する実践的アプローチを解説。
アマゾンベッドロックにおける最新Anthropic Claude Opus、Sonnet、Haikuモデルのタイ、マレーシア、シンガポール、インドネシア、台湾向けグローバルクロスリージョン推論
アマゾンベッドロックでAnthropicの最新AIモデルが東南アジア・台湾でグローバル推論機能を利用可能に。技術実装手順とクォータ管理のベストプラクティスを解説。
中東地域(UAEとバーレーン)におけるAnthropicのClaudeモデルのAmazon Bedrockグローバルクロスリージョン推論の導入
Amazon Bedrockが中東地域でAnthropicのClaudeモデル(Opus、Sonnet、Haiku)のグローバルクロスリージョン推論を提供開始。地域の顧客向けにAIモデルアクセスを拡大。
ビジョン言語モデルを用いたデータアノテーションの拡張による物理AIシステムの強化
Bedrock RoboticsはAWSと連携し、建設現場の映像を分析・ラベル生成するビジョン言語モデルを活用し、物理AIシステムのデータアノテーション効率を向上させています。
SonraiがAmazon SageMaker AIを活用して精密医療試験を加速する方法
生命科学AI企業Sonraiは、AWSと提携し、Amazon SageMaker AIを用いたMLOpsフレームワークを構築。規制環境で必要な追跡可能性と再現性を維持しながら、精密医療試験の効率化を実現。
HexagonがAmazon SageMaker HyperPodでAIモデル生産を加速
HexagonはAWSと協力し、Amazon SageMaker HyperPodのトレーニング基盤を活用して最先端のセグメンテーションモデルを事前学習し、AIモデル生産を拡大しました。
AWS上のHugging Face smolagentsを用いたマルチモデルフレームワークによるエージェント型AI
Hugging FaceのJeff Boudierらは、AWS上でsmolagentsを用いたマルチモデルフレームワークによるエージェント型AIシステムを発表した。このシステムは、複雑な推論・ツール使用・コード実行が可能な自律エージェントへと進化し、企業向けに管理エンドポイントや自動スケーリング機能を提供する。
Amazon SageMaker AI 2025年振り返り第1部:柔軟なトレーニングプランと推論ワークロードのコストパフォーマンス向上
Amazonは2025年にSageMaker AIの基盤インフラを容量・コストパフォーマンス・可観測性・使いやすさの4分野で改善し、第1部では柔軟なトレーニングプランの導入と推論ワークロードのコストパフォーマンス向上を発表した。
Amazon SageMaker AI 2025年レビュー第2部:SageMaker AIモデルのカスタマイズとホスティングにおける改善された可観測性と拡張機能
Amazonが2025年にSageMaker AIを改善し、生成AIワークロードのトレーニング、チューニング、ホスティングを支援する機能を強化した。
Amazon Quick AgentsがModel Context Protocol (MCP)で外部ツールを統合
Amazon QuickがModel Context Protocol (MCP)をサポートし、ユーザーが独自のMCPサーバーをホストしてアプリケーション機能をツールとして公開できる。Amazon QuickはMCPクライアントとして機能し、アクション実行、データアクセス、AIエージェント統合を可能にする。
Union.aiとFlyteでAmazon EKS上にAIワークフローを構築
Union.aiとFlyteは、AI/MLワークフローの複雑化に対応するため、Amazon EKS上でのモデル展開を効率化するソリューションを提供している。これにより、データサイエンティストやエンジニアは、パイロット段階から本番環境への移行を容易に実現できる。
Amazon QuickがSnowflakeデータソースへのキーペア認証をサポート
Amazon Quickは、Snowflakeデータソースへの接続にキーペア認証をサポートした。これにより、パスワード認証のセキュリティ脆弱性や運用負荷を解消し、Snowflakeのユーザー名・パスワード非推奨化に対応する。
Amazon Bedrock AgentCoreで統一されたインテリジェンスを構築
AWSが、セールス担当者がSalesforce、サポートチケット、Amazon Redshift間の切り替え作業を減らし、統一された顧客インテリジェンスを構築するためのAmazon Bedrock AgentCoreを発表した。