TLDR : EPFLの研究者たちは、AIを用いたMammAlpsプロジェクトでアルプスの野生動物の行動を非侵襲的に研究することを目指しています。
目次
ローザンヌ連邦工科大学(EPFL)の研究者チームは、CVPR 2025でを紹介しました。これは、コンピュータービジョン、行動生態学、非侵襲的な野生動物の観察を組み合わせたプロジェクトです。スイス国立公園とのパートナーシップで行われたこのイニシアチブは、マルチモーダルなビデオデータセットを通じてアルプスの哺乳類の行動をよりよく理解することを目指しています。
野生動物の行動を理解することは、気候変動や人間活動が生態系に与える影響を予測するために不可欠です。 トラップカメラは、直接観察やセンサーによるマーキングよりも侵襲性が低く、動物を乱さずに研究できます。しかし、それらが生成する画像の手動分析は時間がかかり、部分的です。
EPFLのチームは、博士課程のバレンティン・ガベフが率い、アレクサンダー・マティス教授とデビス・トゥイア教授が監督する中で、MammAlpsを通じてこの課題に応えています。これは、フィールドで種を識別し、その行動を解釈できるAIモデルを訓練するためのマルチモーダルでマルチアングルのビデオデータセットです。
注釈付きマルチモーダルデータベース
研究者たちは、スイス国立公園内の3つの異なる生態学的生息地を代表するサイトにトラップカメラを設置しました。それぞれのサイトには、異なる角度で配置された3台のカメラが装備され、最大の空間コンテキストで同じシーンをキャプチャすることができました。
動きによって作動するこれらのカメラは、2023年6月から8月の昼夜を問わず、エルク、キツネ、オオカミ、マウンテンヘア、ノロジカなどの異なる種を撮影しました。プロトコル全体は、現行の保存規則との適合性を保証するために国立公園の研究委員会によって承認されました。
合計で43時間以上の生の映像が記録されました。検出モデル(MegaDetector、ByteTrack)によって処理された後、精度と一貫性を確保するために手動で注釈が付けられ、行動の豊かさのために8.5時間が選ばれました。
ビデオシーケンスは、環境音の音声記録および動物の移動や相互作用に影響を与える可能性のある地形要素(岩、 水源、茂み)を説明する環境マップで補完されました。天候条件も統合され、より詳細なコンテキスト分析が可能になりました。
行動は、具体的なアクション(歩く、匂いを嗅ぐ)からより全体的な活動(遊ぶ、食べ物を探す)まで、2つのレベルでラベル付けされました。この階層構造により、AIアルゴリズムは観察された行動をよりよく文脈化することができます。
保全に向けた有望な応用
研究は積極的に進行中です:チームは2024年に収集されたデータを分析しながら、2025年には現地での新たなキャンペーンを実施し、季節ごとの行動ダイナミクスの研究を洗練させています。
長期的には、MammAlpsは気候変動の影響をより迅速に特定したり、病気に関連する異常な行動を検出したり、希少種の再導入に役立つ可能性があります。
国際的な認識
MammAlpsは、コンピュータービジョンの分野で最も権威のあるイベントの1つであるCVPR 2025でHighlightとして選ばれました。技術革新と生態学的コミットメントを組み合わせたプロジェクトにふさわしい評価です。
MammAlpsデータセットは、研究目的でオンラインでアクセス可能です: https://eceo-epfl.github.io/MammAlps/
記事の参考文献:Valentin Gabeff, Haozhe Qi, Brendan Flaherty, Gencer Sumbüül, Alexander Mathis, Devis Tuia. 「MammAlps:スイスアルプスにおける野生哺乳類の行動監視のためのマルチビュー動画データセット」。コンピュータービジョンとパターン認識に関するIEEE/CVF会議(CVPR)、ナッシュビル、TN、2025。https://arxiv.org/html/2503.18223v1