米Metaの研究部門FAIR(Fundamental AI Research)のBrain & AIチームが、国際的な脳モデリング競技「Algonauts 2025」で総合1位を獲得した。チームは約10億(1B)パラメータの新モデル「TRIBE(Trimodal Brain Encoder)」を披露し、提示刺激に対する脳の反応を予測するよう学習された初の深層ニューラルネットワークだと発表している。
Meta FAIRのBrain & AIチームがAlgonauts 2025で優勝
今回の優勝は、AIモデルが脳活動データをどこまで説明できるかという研究の最前線を示すものだ。TRIBEは「トリモーダル」を掲げ、複数の情報モダリティ(例:視覚・音声・言語など)を統合して脳反応の予測精度を高める設計とされる。Metaは、刺激に対する脳の応答を直接予測するタスクで学習した点を強調している。
Algonauts 2025とは
Algonautsは、脳科学とAIを橋渡しする目的で行われる国際コンペティションで、視聴覚などの刺激に対する脳活動(例:fMRIなど)を、機械学習モデルでどれだけ正確に予測できるかを競う。参加チームは、脳の表現とAIモデルの内部表現の整合性を高める工夫を凝らし、より「脳らしい」表現獲得を目指す。
TRIBEの特徴
TRIBEは約10億パラメータ規模の深層モデルで、マルチモーダル情報を統合しながら脳反応をエンコード(予測)する。Metaは、提示刺激に対する脳反応の予測に特化して学習した点を差別化要因として挙げている。
- 大規模(約1Bパラメータ)の表現学習により、多様な刺激と脳反応の対応関係をモデリング
- 複数モダリティの統合で、単一モダリティでは捉えにくい脳内表現の共通構造を狙う設計
- 「脳反応の予測」を学習目標に据え、AIの内部表現を神経応答とより整合させるアプローチ
何が注目ポイントか
AIモデルの性能評価を「脳での説明可能性」で測る試みが加速している。TRIBEのようなマルチモーダル脳エンコーダは、純粋なベンチマークスコアだけでなく、人の知覚・理解に近い内部表現を作れるかどうかの検証を前進させる可能性がある。
- AIと神経科学の収斂:脳データに整合した内部表現の探索
- モデル設計指針への示唆:マルチモーダル統合の有効性検証
- 評価の高度化:行動指標や精度だけでなく、神経データでの妥当性を重視
期待される応用領域
脳反応予測の精度が上がるほど、AIは人の知覚・認知に寄り添った振る舞いを獲得しやすくなる。基礎研究から産業応用まで、幅広い波及が見込まれる。
- 神経科学の基礎研究:脳内表現の階層構造やモダリティ間統合の理解
- BCI・ニューロテクノロジー:コミュニケーション支援やリハビリの高度化
- メディア理解AI:映像・音声・言語を横断する認識・生成の品質向上
- 説明可能性:モデル判断の妥当性を神経データで補強
- 臨床研究支援:疾患バイオマーカー探索や個別化介入の設計支援
今後の展望
今回の結果は、マルチモーダルかつ大規模な脳エンコード手法の有望性を示すものだ。今後はモデルや学習データ、評価プロトコルの公開状況が注目点となる。倫理・プライバシーへの配慮を前提に、再現性あるベンチマークとオープンサイエンスが進めば、AIと脳科学の接続はさらに加速しそうだ。




