動画・音声を視聴したときの“脳反応”を予測──Metaが開発した脳活動予測AI「TRIBE v2」の可能性

この記事は約2分で読めます。





動画・音声を視聴したときの“脳反応”を予測──Metaが開発した脳活動予測AI「TRIBE v2」の可能性

脳活動の未来を拓く「TRIBE v2」

Metaが開発した新しいAIモデル「TRIBE v2」は、人間の脳が動画や音声を視聴した際の反応を予測できるという画期的な技術です。このAIは、視覚、聴覚、言語を基にした脳の活動を的確に再現し、未来の神経科学における新たな可能性を探ります。

TRIBE v2の誕生背景

TRIBE v2は、2019年に始まった「Innovative Tech」プロジェクトの一環として開発されました。このプロジェクトでは、技術と芸術を組み合わせ、創造的かつ革新的なソリューションを提供することを目的としています。Metaの研究者たちは、「A foundation model of vision, audition, and language for in-silico neuroscience」という論文でその成果を発表しました。

トレーニングデータと方法

通常、脳の活動を詳細に調べるためには大量のfMRIデータが必要とされています。しかし、TRIBE v2は720人以上のボランティアから集めた1000時間以上のfMRIデータを使用し、コンピュータビジョン技術を駆使して脳の活動をシミュレーションすることに成功しました。

このアプローチにより、写真を見たときの脳内活動や音楽を聴いたときの感情的な反応まで、数々の状況下での脳の動きを正確に予測することができます。

広がる応用の可能性

TRIBE v2の技術は、従来の手法に比べて迅速で効率的なため、教育やエンターテインメント、医療など多岐に渡る分野での応用が期待されています。この技術により、人々の反応をより深く理解することが可能になり、よりパーソナライズされた体験や治療が提供できるようになります。

さらに、Algonauts 2025コンペティションでは、263チームの中で1位を獲得するなど、その実力が広く認められています。

AIを用いた未来の神経科学

このAI技術の革新は、あらゆるデータと情報に基づき、より高精度な脳活動の分析を可能にします。Metaの進化し続けるSNSプラットフォームとあわせ、さらなる研究と進歩が期待されることでしょう。

最後に、TRIBE v2の登場により、我々の脳の働き方に関する理解が今後どのように拡がっていくのか、その影響は計り知れません。

ソース元はこちら: 動画・音声を視聴したときの“脳反応”を予測──Metaが開発した脳活動予測AI「TRIBE v2」の可能性

免責事項:本記事はAIによって自動生成されたものであり、内容の正確性を保証するものではありません。詳細情報はソース元をご確認ください。


コメント

タイトルとURLをコピーしました