レビュー

OpenAIのオープンウェイトモデル「gpt-oss」はOllamaを使って個人用PCで簡単に使用可能


2025年8月5日、OpenAIが重み(ウェイト)を公開したモデルの「gpt-oss」を発表しました。このモデルは誰でも無料でダウンロード可能な上、比較的軽量なので個人のPCでもローカル実行することが可能な点が特徴です。実際にgpt-ossをPCに導入してみました。

OpenAI gpt-oss · Ollama Blog
https://ollama.com/blog/gpt-oss

OpenAI's New Models on RTX GPUs | NVIDIA Blog
https://blogs.nvidia.com/blog/rtx-ai-garage-openai-oss/

gpt-ossを使うためのツールの1つが「Ollama」です。OllamaはOpenAIとの提携を果たしており、Ollamaを通じてgpt-ossの機能を利用できます。

さらに、OllamaとOpenAIはNVIDIAとも協力しており、NVIDIAのGPU「RTX」シリーズだとgpt-ossモデルの機能を適切に活用できるようになるとのことです。


gpt-ossは比較的軽量とは言っても小さいモデル「gpt-oss-20b」は16GB以上のVRAM容量または統合メモリが最適とされていて、RTXシリーズだと「RTX 4080」や「RTX 5070 Ti」などが必要になります。VRAMが不足している場合はCPUにオフロードできるとのことですが、実行速度は遅くなる可能性があります。フルサイズモデルの「gpt-oss-120b」は60GB以上のVRAMまたは統合メモリが最適とされています。

今回はM4搭載MacBook Airに導入してみました。メモリは32GBです。


まずは公式サイトからOllamaのmacOS版をダウンロードします。


ダウンロードしたら、アイコンを左から右にドラッグしてインストール。


インストールしたOllamaを開きます。


使えるモデル一覧の中に「gpt-oss-20b」と「gpt-oss-120b」が組み込まれていました。


モデルを「gpt-oss-20b」に設定したままプロンプトを入力すると、最初にモデルのダウンロードが始まりました。サイズは12.8GBです。


数分でダウンロードが完了し、プロンプトに対する出力を始めました。


動作中はGPUを90%以上使用する様子がアクティビティモニタで観察できます。


gpt-ossは推論モデルで、推論中の処理も出力されます。


大阪から東京までの行き方を尋ねたところこんな感じの出力になりました。JR東海の「いっぷ」など存在しない名称を言っています。


ターミナルを使ってチャットする方法はOpenAIのドミニク・クンデル氏が解説しています。

How to run gpt-oss locally with Ollama
https://cookbook.openai.com/articles/gpt-oss/run-locally-ollama

この記事のタイトルとURLをコピーする

・関連記事
OpenAIがオープンウェイトのAI推論モデル「gpt-oss」を発表、軽量版はノートPCやスマートフォンでも動作可能 - GIGAZINE

定番ローカルAIツール「Ollama」のGUIアプリ版が登場、数多くの大規模言語モデルをローカルで実行してチャットできる - GIGAZINE

わずか2GBのメモリ使用量でスマホでの実行もOKな軽量オープンウェイトモデル「Gemma 3n」をGoogleが正式リリース、音声や動画の入力にも対応し日本語ももちろんOK - GIGAZINE

Googleが単一のGPUで実行できる中では過去最高の大規模言語モデル「Gemma 3」を発表 - GIGAZINE

in ソフトウェア,   レビュー, Posted by log1p_kr

You can read the machine translated English article OpenAI's open weight model 'gpt-oss'….