Ollama Blog の最新記事
公式20件の記事
Llama 3.2が小型化とマルチモーダル化を実現
OllamaがMetaと提携し、Llama 3.2をOllamaプラットフォームに導入する。
Bespoke-Minicheckで幻覚を低減
Bespoke Labsは、Ollamaで利用可能な新しい事実確認モデル「Bespoke-Minicheck」を開発した。このモデルは、他のモデルが生成した応答を事実確認し、幻覚を検出・低減できる。
ツールサポート
OllamaがLlama 3.1などの人気モデルでツール呼び出しをサポートした。これにより、モデルは既知のツールを使用してプロンプトに応答し、より複雑なタスクの実行や外部との相互作用が可能になる。
Google Gemma 2
GoogleはGemma 2をOllamaで2B、9B、27Bの3サイズで提供開始した。
完全オープンソースのAIコードアシスタントをエディター内に
Continueは、オープンソースのLLMを使用して、Visual Studio CodeとJetBrains内で独自のコーディングアシスタントを簡単に作成できるようにする。
Google、Ollamaサポートを備えたFirebase Genkitを発表
GoogleがGoogle IO 2024で、開発者がAI搭載アプリを構築・デプロイ・監視するためのオープンソースフレームワーク「Firebase Genkit」にOllamaサポートを追加したと発表した。
Llama 3はあまり検閲されていない
Metaが公開したLlama 3は、Llama 2と比較して大幅に検閲が緩和され、誤った拒否率が低下し、以前に拒否されたプロンプトの3分の1未満しか拒否しない。
Llama 3
Meta社が次世代の大規模言語モデル「Llama 3」を公開し、Ollamaで利用可能になった。現在公開されている中で最も高性能なオープンLLMである。
埋め込みモデル
Ollamaが埋め込みモデルを提供し、検索や検索拡張生成(RAG)アプリケーションで使用するベクトル埋め込みの生成を容易にした。
OllamaがAMDグラフィックスカードをサポート
OllamaがWindowsとLinuxでAMDグラフィックスカードのサポートをプレビュー公開した。これにより、Ollamaの全機能がAMDグラフィックスカードで高速化できるようになった。
Windowsプレビュー
OllamaがWindowsでプレビュー公開され、GPUアクセラレーション対応のネイティブ環境で大規模言語モデルの実行・作成が可能になりました。
OpenAI互換性
OllamaがOpenAI Chat Completions APIと初期互換性を実現し、既存のOpenAI向けツールをローカルモデルで使用可能にしました。
視覚モデル
LLaVA 1.6(7B、13B、34Bパラメータ)が利用可能に。高解像度画像対応、文字認識と論理的推論が向上。
PythonとJavaScriptライブラリ
OllamaのPythonおよびJavaScriptライブラリの初版が公開され、数行のコードでアプリケーションとの統合が可能になりました。両ライブラリはREST APIの全機能を備え、使い慣れた設計で互換性があります。
クライアントサイド技術でLLM搭載Webアプリを構築する
オープンソースのローカルソフトウェアを使用し、LangChainの人気ユースケースであるRAG(文書検索拡張生成)を実装し、文書との対話を可能にする方法を紹介。
Ollamaが公式Dockerイメージとして利用可能に
Ollamaが公式Dockerイメージで提供開始。MacではDocker Desktopで、LinuxではGPUアクセラレーション付きコンテナ内で実行可能になりました。
ObsidianノートでのLLM活用
ObsidianなどのノートツールでOllamaを使用してローカルLLMを組み込む方法について解説しています。
Code Llamaのプロンプト方法
Code Llamaのプロンプト構造、バリエーション、機能(指示、コード補完、中間補完)について解説するガイドです。
ローカルでCode Llamaを実行する
MetaのCode LlamaがOllamaで利用可能になり、ローカル環境で試せるようになりました。
ローカルでLlama 2の検閲なしモデルを実行する
Llama 2の検閲ありモデルと検閲なしモデルの実行例を比較し、ローカル環境での使用方法を解説します。