写真=Shutterstock

Runpodは5月4日(現地時間)、AIコードの本番環境へのデプロイに伴うインフラ負担を軽減するオープンソースのPython SDK「Flash」を公開した。ローカルのPython関数を、コンテナ構築やイメージ管理、インフラ設定なしで、自動スケール対応のエンドポイントとして数分で展開できるという。Techzineが報じた。

FlashはMITライセンスで提供され、PyPIとGitHubから利用できる。

Runpodによると、開発者はPythonから必要なコンピュート要件や依存関係を直接指定するだけでよく、プロビジョニングやスケーリング、インフラ管理はFlashが自動で担う。エンドポイントは需要に応じて自動的に拡張し、利用がないときはゼロまでスケールダウンする。

Runpodのゼン・ルCEOは「サーバレスは強力だが、設定プロセス自体が障壁になっているというフィードバックが継続的に寄せられていた」と説明。その上で、「開発者がPythonコードを書き、必要なコンピュート資源を選ぶだけで、数分以内にリクエストを処理できるようにするのが目標だ」と述べた。

さらに同氏は、「AIエージェントでは、複数のモデルを呼び出しながら、異なるコンピュート環境を使い分け、需要に応じてスケールさせる必要がある。Flashはこうしたワークロードに適している」と語った。

Flashは、バッチ処理や非同期ワークロード向けのキューベースの処理方式と、リアルタイム推論トラフィック向けのロードバランシング対応エンドポイントをサポートする。

同社によると、Runpodの開発者数は現在70万人を超える。2026年3月単月では、サーバレスエンドポイントが3万7000件生成された。

キーワード

#Runpod #Flash #Python #SDK #サーバレス #AI #AI推論 #GitHub #PyPI
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.