レビュー

無料でGoogleのローカルAI「Gemma 4」の威力がGoogle公式アプリ「AI Edge Gallery」で誰でも試せるように、iPhoneでもローカル動作可能


Googleが2026年4月2日に発表したオープンソースAIモデル「Gemma 4」がGoogle公式アプリ「Google AI Edge Gallery」で提供されています。この「AI Edge Gallery」が4月3日からiOS向けにも配信されており、iPhone上でもGemma 4をローカルで動作させることが可能になったとのことで、実際に試してみました。


iOS向けのGoogle AI Edge Galleryは以下で配信されています。

Google AI Edge Galleryアプリ - App Store
https://apps.apple.com/jp/app/google-ai-edge-gallery/id6749645337

「入手」をタップし、AI Edge Galleryをインストールします。なお、今回はiPhone 15 Proに導入しました。


AI Edge Galleryを起動すると、Gemma 4がアピールされました。「Dismiss」をタップ。


Googleのサービス規約とプライバシーポリシーが表示されるので「Accept and Continue」をタップ。


通知を許可するかを尋ねられるので、今回は「許可しない」をタップ。


Google AI Edge Galleryのトップで、「AI Chat」をタップします。


モデル一覧が表示されます。記事作成時点では最上部にGemma 4のうちE2BモデルとE4Bモデルが表示されていました。E2BモデルとE4Bモデルはモバイル機器やIoT機器向けに設計されたEffectiveモデルで、31B Denseモデルや26B MoEモデルと比べてかなり小規模なのが特徴。「Download」あるいは「↓」ボタンをタップして、モデルをダウンロードします。なお、モデルサイズはE2Bモデルが2.54GB、E4Bモデルが3.61GBとなっているので、通信量やストレージの残り容量に注意してください。


ダウンロードが終わったら、「Try it →」をタップし、まずはE2Bモデルを試してみます。


AIチャットの画面はこんな感じ。右上のスライドバーアイコンをタップすることで設定を変更できます。


変更できるのは最大トークン数やトークンのフィルタリング制限であるTopK、関数調整のTopPやTemperture。また、演算資源をCPUにするかGPUにするかを選択可能。「Enable thinking」は推論モードのオン・オフで、デフォルトでオフになっています。オンにする場合はスイッチを入れて、「OK」をタップします。


Gemma 4は日本語に対応しています。話しかけてみると、iPhone 15 Pro上でローカル動作しているにもかかわらず、数秒で回答が返ってきます。E2Bモデルはパラメーターサイズが小さいこともあり、駄洒落(だじゃれ)の回答を見ても分かる通り、内容のクオリティはそこまで高いというわけではありませんが、動作自体は機敏です。


Gemma 4のE4Bモデルに「どんなことができるの?」と日本語で話しかけてみたところが以下のムービー。返答は早く、回答の日本語にも破綻はありません。

iPhoneでGemma 4をローカル動作させて日本語で話しかけてみた - YouTube


また、GoogleはGemma 4の公開と同時に、デバイス上で完全にマルチステップの自律的なエージェントワークフローを実行できる「Agent Skills」をGoogle AI Edge Galleryに実装しています。

Bring state-of-the-art agentic skills to the edge with Gemma 4 - Google Developers Blog
https://developers.googleblog.com/bring-state-of-the-art-agentic-skills-to-the-edge-with-gemma-4/

Google AI Edge Galleryから「Agent Skills」をタップ。


今回はE4Bモデルで試してみます。「→」をタップ。


たとえば、E4Bモデルに「東京タワーの場所をGoogleマップで検索して埋め込みで表示させる」というタスクを行わせてみたところ、以下のムービーのように十数秒でサクッと表示されました。エージェントスキルの一覧はプロンプト入力欄の「Skills」をタップします。

Gemma 4のE4Bモデルのエージェントスキルで東京タワーの場所を地図で表示してもらった - YouTube


デフォルトだと8種類のスキルが有効化されています。今回利用した「interactive-map」のスキル内容を見るためには「View」をタップ。


interactive-mapの中身はこんな感じ。スキルは新しく自分でも追加することが可能となっています。

この記事のタイトルとURLをコピーする

・関連記事
GoogleがオープンAIモデル「Gemma 4」を発表、ライセンスをApache 2.0に変更 - GIGAZINE

iPhone 17 Proでパラメーター数80億のAIモデル「1-bit Bonsai 8B」をローカル実行してみたよレビュー、無料アプリのLocally AIで簡単に実行できる - GIGAZINE

スマホでAIモデルをローカル実行できる無料アプリ「Off Grid」レビュー、LLMも画像生成モデルも実行可能でiOS・Androidどっちも対応 - GIGAZINE

パラメーター数8Bなのにメモリ消費わずか1.15GBの省メモリAIモデル「1-bit Bonsai」が登場、メモリ消費量14倍のモデルと同等以上の性能を発揮 - GIGAZINE

無料でiPhone/iPad・AndroidスマホでいろいろなローカルAIを動かしチャット&ローカルAIベンチマークができるオープンソースアプリ「PocketPal AI」、サブスク不要&オフラインでどこでも利用可能 - GIGAZINE

in AI,   動画,   ソフトウェア,   レビュー, Posted by log1i_yk

You can read the machine translated English article Google's local AI, 'Gemma 4,' is now….