Ollama Blog の最新記事

公式

20件の記事

Llama 3.2が小型化とマルチモーダル化を実現

OllamaがMetaと提携し、Llama 3.2をOllamaプラットフォームに導入する。

Ollama Blog·9月25日

Bespoke-Minicheckで幻覚を低減

Bespoke Labsは、Ollamaで利用可能な新しい事実確認モデル「Bespoke-Minicheck」を開発した。このモデルは、他のモデルが生成した応答を事実確認し、幻覚を検出・低減できる。

Ollama Blog·9月18日

ツールサポート

OllamaがLlama 3.1などの人気モデルでツール呼び出しをサポートした。これにより、モデルは既知のツールを使用してプロンプトに応答し、より複雑なタスクの実行や外部との相互作用が可能になる。

Ollama Blog·7月25日

Google Gemma 2

GoogleはGemma 2をOllamaで2B、9B、27Bの3サイズで提供開始した。

Ollama Blog·6月27日·★★★★

完全オープンソースのAIコードアシスタントをエディター内に

Continueは、オープンソースのLLMを使用して、Visual Studio CodeとJetBrains内で独自のコーディングアシスタントを簡単に作成できるようにする。

Ollama Blog·5月31日

Google、Ollamaサポートを備えたFirebase Genkitを発表

GoogleがGoogle IO 2024で、開発者がAI搭載アプリを構築・デプロイ・監視するためのオープンソースフレームワーク「Firebase Genkit」にOllamaサポートを追加したと発表した。

Ollama Blog·5月20日

Llama 3はあまり検閲されていない

Metaが公開したLlama 3は、Llama 2と比較して大幅に検閲が緩和され、誤った拒否率が低下し、以前に拒否されたプロンプトの3分の1未満しか拒否しない。

Ollama Blog·4月19日

Llama 3

Meta社が次世代の大規模言語モデル「Llama 3」を公開し、Ollamaで利用可能になった。現在公開されている中で最も高性能なオープンLLMである。

Ollama Blog·4月18日·★★★★

埋め込みモデル

Ollamaが埋め込みモデルを提供し、検索や検索拡張生成(RAG)アプリケーションで使用するベクトル埋め込みの生成を容易にした。

Ollama Blog·4月8日

OllamaがAMDグラフィックスカードをサポート

OllamaがWindowsとLinuxでAMDグラフィックスカードのサポートをプレビュー公開した。これにより、Ollamaの全機能がAMDグラフィックスカードで高速化できるようになった。

Ollama Blog·3月14日

Windowsプレビュー

OllamaがWindowsでプレビュー公開され、GPUアクセラレーション対応のネイティブ環境で大規模言語モデルの実行・作成が可能になりました。

Ollama Blog·2月15日

OpenAI互換性

OllamaがOpenAI Chat Completions APIと初期互換性を実現し、既存のOpenAI向けツールをローカルモデルで使用可能にしました。

Ollama Blog·2月8日·★★★★

視覚モデル

LLaVA 1.6(7B、13B、34Bパラメータ)が利用可能に。高解像度画像対応、文字認識と論理的推論が向上。

Ollama Blog·2月2日·★★★★

PythonとJavaScriptライブラリ

OllamaのPythonおよびJavaScriptライブラリの初版が公開され、数行のコードでアプリケーションとの統合が可能になりました。両ライブラリはREST APIの全機能を備え、使い慣れた設計で互換性があります。

Ollama Blog·1月23日

クライアントサイド技術でLLM搭載Webアプリを構築する

オープンソースのローカルソフトウェアを使用し、LangChainの人気ユースケースであるRAG(文書検索拡張生成)を実装し、文書との対話を可能にする方法を紹介。

Ollama Blog·10月13日·★★★★

Ollamaが公式Dockerイメージとして利用可能に

Ollamaが公式Dockerイメージで提供開始。MacではDocker Desktopで、LinuxではGPUアクセラレーション付きコンテナ内で実行可能になりました。

Ollama Blog·10月5日

ObsidianノートでのLLM活用

ObsidianなどのノートツールでOllamaを使用してローカルLLMを組み込む方法について解説しています。

Ollama Blog·9月21日

Code Llamaのプロンプト方法

Code Llamaのプロンプト構造、バリエーション、機能(指示、コード補完、中間補完)について解説するガイドです。

Ollama Blog·9月9日

ローカルでCode Llamaを実行する

MetaのCode LlamaがOllamaで利用可能になり、ローカル環境で試せるようになりました。

Ollama Blog·8月24日·★★★★

ローカルでLlama 2の検閲なしモデルを実行する

Llama 2の検閲ありモデルと検閲なしモデルの実行例を比較し、ローカル環境での使用方法を解説します。

Ollama Blog·8月1日