画像=Twelve Labs

Twelve Labsは3月23日、Getty Images Koreaが運営する画像・動画プラットフォーム「Getty Images Bank」に、マルチモーダルAIモデル「Marengo」を搭載したと発表した。これにより、同プラットフォームが保有する約27万件のコンテンツを自然言語で検索できるようになり、Getty Images Koreaの顧客約10万人が利用できる。

従来、ストックプラットフォームの動画検索は、メタデータやタグに基づくキーワード検索が中心だった。Marengoは、動画内の映像、音声、テキストの情報を統合して解析する。

例えば、「海辺で遊ぶ子ども」「雨の夜に傘を差して歩くビジネスパーソン」といった具体的な場面を文章で入力すると、文脈に沿った検索結果を提示する。単なる物体認識にとどまらず、映像全体の文脈や意味を捉えるのが特徴だという。

Twelve Labsは、Marengoについて、GoogleやOpenAIなどの大手テック企業のモデルと比べて性能が43%高いとしている。また、韓国発のAIモデルとして初めて、動画AIモデルとしても初めてAmazon Bedrockで提供されたとしている。

Twelve Labsのイ・ジェソン代表は、「メディア産業でAIがもたらす革新的な変化を先導していく」とコメントした。Getty Images Koreaのユン・チュニ代表は、自然言語による動画検索の導入によって顧客の検索効率が高まり、クリエイターエコシステムにも好循環が生まれるとの期待を示した。

キーワード

#Twelve Labs #Getty Images Bank #Getty Images Korea #Marengo #マルチモーダルAI #自然言語検索
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.