ソフトウェア

Hugging Faceでダウンロード可能なAIモデルの数が100万個を突破


AIプラットフォームのHugging Faceでは、Metaの「Llama」やGoogleの「Gemma 2」など、数多くのAIモデルが公開されています。そんなHugging Faceでダウンロード可能になったAIモデルの数が2024年9月をもって100万個を突破したことが報告されています。


Hub Stats - a Hugging Face Space by cfahlgren1
https://huggingface.co/spaces/cfahlgren1/hub-stats

2022年3月の調査開始時点では、Hugging Faceでダウンロード可能なAIモデルの数は緩やかに増加していましたが、2023年以降その数は指数関数的に増加。2024年9月1日時点では119万381個ものAIモデルが公開されています。


以下はHugging Faceでダウンロード可能なAIモデルのリストです。MetaやNVIDIA、Microsoftなどさまざまな企業が独自のAIモデルを配布しています。


AIの学習に使用されるデータセットも数多く作成されるようになっており、2022年4月時点では670件でしたが、2024年9月には1万7000件以上のデータセットが作成されました。


機械学習を活用したデモ「Space」の数を示したグラフが以下。2023年8月に2万2227個のピークに達しましたが、その後急落。しかし再び徐々にその数を増やしており、2024年9月時点で1万7291個のSpaceが公開されているとのこと。


以下は2024年8月末から9月26日までの間にダウンロードされたAIモデルの利用目的を示したグラフです。入力された単語を予測する「Fill-Mask」と音声を分類する「Audio-classification」が全体のおよそ4分の1を占めています。


また、過去30日間でダウンロードされたAIモデルを開発の際に使用されたニューラルネットワークアーキテクチャ別に分けると、GoogleのTransformerが全体の4分の3以上を占めていることが明らかになりました。


このほかHugging Faceは2024年8月20日に、ユーザー数が500万人を突破したことを報告しています。

この記事のタイトルとURLをコピーする

・関連記事
GoogleとHugging Faceが戦略的提携、Hugging FaceユーザーがNVIDIAのH100やGoogleのTPUなどの強力な計算資源を利用可能に - GIGAZINE

Hugging FaceのAIモデルをテストする「Open LLM Leaderboard v2」で中国Qwenのモデルがトップに - GIGAZINE

AIを開発するために必要なデータが急速に枯渇、たった1年で高品質データの4分の1が使用不可に - GIGAZINE

全ベンチマークでGPT-4oを上回る世界トップのオープンソース大規模言語モデル「Reflection 70B」が登場、Llama 3.1 70B Instructをベースにリフレクションチューニングを施す - GIGAZINE

Mistralが初のマルチモーダルAIモデル「Pixtral 12B」リリース、GitHub・Hugging Face・APIサービスプラットフォームLe Chat・Le Platforme経由で利用可能 - GIGAZINE

小型ながらOpenAIやGoogleのAIに匹敵する性能を持つマルチモーダルAI「Molmo」がオープンソースで公開される、ブラウザ版のデモページも - GIGAZINE

in ソフトウェア,   ネットサービス, Posted by log1r_ut

You can read the machine translated English article here.