Cohereは、多言語AIモデル「Tiny Aya」を公開した。70以上の言語に対応し、ノートPCなどのローカル端末で動作するのが特徴で、オフライン環境での翻訳利用も想定している。TechCrunchが2月17日(現地時間)に報じた。
Tiny Ayaは、モデルの重みを公開するオープンウェイト形式で提供する。インターネット接続がない環境でも利用できるという。
モデルはベンガル語、ヒンディー語、パンジャブ語、ウルドゥー語、グジャラート語、タミル語、テルグ語、マラーティー語など、南アジアの言語を含む70以上の言語をカバーする。パラメータ数は33億5000万。
Cohereはあわせて、地域別に最適化した派生モデルも公開した。幅広い言語に対応する「Tiny Aya-Global」のほか、アフリカ言語向けの「Tiny Aya-Earth」、南アジア言語に特化した「Tiny Aya-Fire」、アジア太平洋・西アジア・欧州の言語に対応する「Tiny Aya-Water」をそろえた。
同社によると、Tiny AyaはNVIDIA H100を64基搭載したクラスタで学習した。限られた計算資源でも高い性能を発揮できるとし、特にインターネット接続が不安定な地域でも使いやすいオフライン翻訳を強みとしている。
Tiny Ayaは現在、AIモデル共有プラットフォーム「Hugging Face」とCohereのプラットフォームで提供されている。今後は学習用および評価用のデータセットを公開し、技術レポートも公表する予定だ。
著者について