KAISTは1月27日、キム・ヒョヌ氏が率いる電算学部の研究チームがKorea Universityの研究チームと共同で、異なるAIモデル間で学習済みの適応知識を効率的に転用する手法「TransMiter」を開発したと発表した。研究成果は、AI分野の国際学会「AAAI 2026」の口頭発表に採択された。
近年、AI分野では画像とテキストを同時に扱う視覚言語モデル(VLM)の高度化が急速に進んでいる。大規模な画像・言語データで事前学習したモデルは、少量のデータでも新たな領域に比較的短期間で適応できる点が強みとされる。
一方で、新しいモデルが登場するたびに適応学習を一からやり直さなければならず、開発効率の面で課題があった。既存の適応手法も、モデル構造が少し異なるだけで再利用が難しいうえ、複数モデルを同時に運用する必要があり、メモリ使用量や計算コストが増えるという問題を抱えていた。
こうした課題に対し、研究チームはモデルの構造や規模に左右されず、学習済みの知識を別のモデルで再利用できる転用型の適応手法としてTransMiterを提案した。学習過程で蓄積された適応ノウハウを、別のAIモデルに直接受け渡せる点が中核となる。
TransMiterは、モデルの複雑な内部構造を変更せず、出力結果に基づいて得られた適応情報を別のモデルに伝達する仕組みだ。外見や構造が異なるモデル同士でも、同じ質問に対する応答を基準に知識を整理することで、一方のモデルが獲得した適応知識を他方がそのまま活用できるとしている。
研究チームによると、この手法を使えば、時間とコストのかかる学習プロセスを繰り返す必要がなくなり、処理速度の低下もほとんど生じないという。また、従来はモデル構造や規模の違いから再利用が難しいとみられていた適応知識を、モデル構造に依存せず精度高く移転できることを示したとしている。
応用先としては、反復的な学習コストの削減に加え、必要な分野に応じて大規模言語モデルをリアルタイムに更新する「知識パッチ」技術も見込む。キム・ヒョヌ氏は、急速に進化する超大規模言語モデルが登場するたびに発生していた追加学習コストを大幅に抑えられるほか、特定分野の専門知識を容易に追加するモデルパッチの実現にもつながると説明した。
論文の共著者には、ソン・テフン氏(KAIST電算学部修士課程)、イ・サンヒョク氏(博士研究員)、パク・ジファン氏(Korea University博士課程)が名を連ねた。
なお、キム・ヒョヌ氏の研究室は今回の論文に加え、Google Cloud AIと共同で進めた文書内テーブル理解の高度化技術「TabFlash」を含む計3本の論文を発表した。