Twelve Labsは4月1日、ユニセフ韓国委員会が保有する8TB規模の動画・写真データを、AIを活用したデジタルアーカイブとして再構築したと発表した。自然言語で必要な場面を探せるようにし、資料検索にかかる時間を従来比で約95%削減したという。
ユニセフ韓国委員会では、担当者の個人PCやNAS(ネットワーク接続ストレージ)などに大量の資料が分散保存されていた。特定のキャンペーン用映像を探す際には、数千件のフォルダを手作業で確認する必要があった。ファイル名だけでは内容を把握しにくいケースも多く、一部の資料は十分に活用できていなかったとしている。
これに対しTwelve Labsは、映像を時系列と文脈の両面から解析する「ビデオネイティブ」技術を適用した。映像内の人物、行動、物体、背景の関係性を構造的に理解するマルチモーダルAIを基盤とし、担当者が「アフリカの飲料水の現場で子どもが水を飲む場面」といった内容を自然言語で入力すると、関連する映像区間とタイムスタンプを即座に表示する。
新たに蓄積されるデータについても、自動でインデックス化し、検索可能な資産として管理する。
今回の導入により、ユニセフ韓国委員会の資料検索時間は従来比で約95%短縮した。繰り返しの検索作業が減ったことで、キャンペーン企画やコンテンツ制作といった中核業務に充てる時間も増えたとしている。
Twelve Labsのイ・ジェソン代表は、「動画資産を有効活用できれば、どのような支援が必要か、企画した活動が現場で実際にどう機能しているかといった判断に役立つ」とコメントした。その上で、「大規模な非構造化データを保有する機関や企業が、動画資産の活用価値を引き出せるよう協業を拡大していく」と述べた。