2025.03.04 Work

OpenAIのモデル「CLIP」エンコード機能の活用に関する調査を実施

株式会社アプリズムは、OpenAIによって開発された人工知能モデルであるCLIP(Contrastive Language-Image Pretraining)のエンコード機能の活用に関する調査を実施しました。

画像とそれに関連するテキストを一緒に学習させることで、画像とテキストのペアをそれぞれの意味を保持して関連付けることが出来ます。

これにより、画像とテキストの間で意味の類似性を計算したり、テキストと同じ意味を持つ画像を検索することが出来ます。

またCLIPはゼロショット学習能力を持ち、事前に訓練されていない特定のタスクに対しても、一般的な知識に基づいて予測を行うことができます。

図1)CLIPの事前学習およびゼロショット推論の処理イメージ

※引用:GitHubサイト(openai/CLIP)より

株式会社アプリズムでは、このCLIPについてテキスト検索による画像抽出テストを検証してみました。

テストの内容としては、テキスト(英文)にて「歌っている」という検索条件を設定し、弊社が保有する200枚の宴会画像の中から、テキストに該当する画像を抽出するというものです。

結果は80%の精度で、条件に合った画像を抽出することに成功しました。

図2)テキスト条件による画像検索

CLIPの特性においては、1枚の画像に複数の情報が含まれていることから、入力するテキストの意味に完全に合致する情報が画像内で埋もれてしまう場合があることも確認されています。

このため、特定の検索条件に対して、画像から適切な情報を抽出できないケースも存在します。

また、テキストの書き方や表現方法が検索結果に大きく影響するため、入力するテキストの工夫も重要です。

これらの特性を理解し、活用することで、より正確で有用な画像検索結果を得るための最適化が可能になります。

株式会社アプリズムでは、このようなCLIPの特性を踏まえ、お客様が抱える課題を解決するための更なるリサーチと技術改善を進めています。

今後も精度向上に向けた取り組みを強化し、より効率的な画像検索システムの提供を目指してまいります。

#アプリズム #AI #生成AI #RAG #LLM
#ローカルLLM #ローカル生成AI #エッジ生成AI
#AIエージェント #機械学習 #深層学習
#OD調査 #喫煙検知 #属性推定 #国籍推定
#B-RIO #aiba