ソフトウェア

無料でノートPCでも実行可能な70億パラメータのチャットボット「GPT4ALL」発表


GPT-3.5-TurboとMetaの大規模言語モデル「LLaMA」で学習したデータを用いた、ノートPCでも実行可能なチャットボット「GPT4ALL」をNomic AIが発表しました。さまざまなトピックの学習に用いられた質問と返答のペアのトレーニングデータセットもすべて公開されています。

GitHub - nomic-ai/gpt4all: gpt4all: a chatbot trained on a massive collection of clean assistant data including code, stories and dialogue
https://github.com/nomic-ai/gpt4all


GPT4All: Training an Assistant-style Chatbot with Large Scale Data Distillation from GPT-3.5-Turbo
(PDFファイル)https://s3.amazonaws.com/static.nomic.ai/gpt4all/2023_GPT4All_Technical_Report.pdf

Today we're releasing GPT4All, an assistant-style chatbot distilled from 430k GPT-3.5-Turbo outputs that you can run on your laptop. pic.twitter.com/VzvRYPLfoY

— Nomic AI (@nomic_ai)


GPT4All: Running an Open-source ChatGPT Clone on Your Laptop | by Maximilian Strauss | Mar, 2023 | Better Programming
https://betterprogramming.pub/gpt4all-running-an-open-source-chatgpt-clone-on-your-laptop-71ebe8600c71

Nomic AIはまずGPT-3.5-Turboを用いて、質問と返答のペアをおよそ100万個収集。

First, we collected a training dataset of 1 million prompt-response pairs from GPT-3.5-Turbo on a variety of topics. We are publicly releasing all of this data alongside GPT4All. https://t.co/XxCljkO0uO

— Nomic AI (@nomic_ai)


先行するスタンフォード大学のAlpacaの解説に基づいて、Nomic AIはデータ準備とキュレーションに注意を払うことにし、収集したペアをAtlasというツールを用いて整理。多様性の低い質問を削除し、トレーニングデータが幅広いトピックをカバーできるようにしたとのこと。整理後に残ったペアは43万7605件。

Next, we used Atlas to curate the data. We removed low diversity responses, and ensured that the training data covered a variety of topics. Explore the full train set on Atlas: https://t.co/RQ4lDSIocH pic.twitter.com/GDgZ6wQ0pK

— Nomic AI (@nomic_ai)


そしてNomic AIは、LLaMA 7Bのインスタンスから微調整された複数のモデルをトレーニング。最初の公開に関連するモデルはLoRAでトレーニングされました。このモデルをオープンソースの「Alpaca-LoRA」と比較したところ、一貫してperplexityが低い(低い方がよい)結果が出ています。

We then benched our trained model against the best open source alpaca-lora we could find on @huggingface (tloen/alpaca-lora-7b by @ecjwg ). Our model achieves consistently lower perplexity! pic.twitter.com/5VJPXzPLu4

— Nomic AI (@nomic_ai)


GPT4ALLは、いわばChatGPTのオープンソースの軽量クローン。ブログ・Better Programmingの筆者であるマクシミリアン・シュトラウス氏は、「GPT4ALLの魅力は量子化4ビット版モデルを公開したことにある」と述べています。これは、モデルの一部の精度を落として実行することで、よりコンパクトなモデルにしたもので、専用ハードウェア抜きで消費者レベルの端末でも実行できることを意味しています。

以下は、メモリ8GBのiMac M1で動作したという報告。

#GPT4All Seems to work just like that! I am running this on iMac M1 8GB. Sometimes it’s thinking, but it seems to just run amazing :) pic.twitter.com/MHymPLXckj

— BLENDER SUSHI ???? MONK-AI 24/7 Blend Remix 4 All (@jimmygunawanapp)


手元では、VAIO SX12で動作することを確認しました。


なお、モデルは研究目的に限りライセンス供与され無料で利用可能ですが、商用利用は禁止されています。また、補助データを収集したGPT-3.5-Turboの使用条件として、OpenAIと商業的に競合するモデルの開発を禁じるがあることに注意が必要です。

この記事のタイトルとURLをコピーする

・関連記事
ChatGPTをオープンソースで再現、わずか1.6GBのGPUメモリですぐに使用でき7.73倍高速なトレーニングが可能 - GIGAZINE

3DCG製作ソフトのBlenderにGPT-4を統合し「球体を作って」などのプロンプトを入力するだけで3Dモデルを作成するアドオン「BlenderGPT」レビュー - GIGAZINE

GPT4を使ってGPT3.5をハッキングしてジェイルブレイクすることはできるのか? - GIGAZINE

GPT-4やPaLMなどの大規模言語モデルは規模が大きくなると突然予想外の能力を開花させることがある - GIGAZINE

「コントロールの喪失」の恐れがあるとしてGPT-4を超えるAIの即時開発停止を全技術者に対して6カ月間求める公開書簡、イーロン・マスクやスティーブ・ウォズニアックなど1300人以上が署名 - GIGAZINE

in ソフトウェア, Posted by logc_nt

You can read the machine translated English article here.