AI at Meta– tag –
-
Metaが新AIモデル「Muse Spark」を公開 マルチモーダル推論とツール連携で次世代AI基盤を狙う
米Metaの研究組織「Meta Superintelligence Labs」は、新たなAIモデル「Muse Spark」を発表しました。テキストだけでなく画像など複数の情報を同時に扱えるマルチモーダル推論に対応し、ツール連携や複数エージェントの協調など、次世代AIの要素を備えたモ... -
個人向け「超知能AI」が健康管理を一変?1,000人超の医師が監修した新システムの可能性
1,000人以上の医師が協力して作成した学習データをもとに、人々が自分の健康状態を深く理解できるよう支援する「個人用スーパーインテリジェンス(Personal Superintelligence)」が登場しつつあります。栄養情報や運動時に使われる筋肉など、複雑な医療・... -
メタ、AWS Gravitonを数千万コア規模で採用 生成AIインフラを共同強化へ
米メタ(Meta)は、アマゾン・ウェブ・サービス(AWS)と提携し、AWSの独自プロセッサ「Graviton(グラビトン)」を数千万コア規模で自社コンピュート基盤に取り入れる合意を発表しました。これにより、「Meta AI」をはじめとする同社の生成AI・エージェン... -
新モデル「Muse Spark」、従来比10倍以上の計算効率でLLM性能を実現 Llama 4 Maverickから大幅刷新
次世代の「個人向けスーパーインテリジェンス」を目指す大規模言語モデル「Muse Spark」が、従来モデルに比べて「同じ性能を、10倍以上少ない計算量」で達成できることが明らかになりました。開発チームは、この効率性を支えるスケーリング手法と学習設計... -
マルチエージェントで高精度と速度を両立 「Muse Spark」の新しい推論スケーリング手法とは
AIにより高度な推論をさせようとすると、通常は「じっくり考えさせる」ぶんだけ応答が遅くなります。こうしたジレンマに対し、「Muse Spark」という仕組みでは、複数のエージェントを同時に動かすことで、推論の質を高めつつ待ち時間をあまり増やさないと... -
マルチモーダルAI「Muse Spark」登場 画像とテキストを横断して理解する次世代モデルの可能性
画像とテキストをまたいで情報を理解し、日常のトラブルシューティングから専門的なSTEM分野まで幅広く対応できる新しいAI「Muse Spark」が登場しました。ビジュアル情報の統合処理に特化した設計により、家庭用電化製品の故障診断など、これまで人間に頼... -
Metaが「SAM 3.1」公開 動画処理を大幅効率化するオブジェクト多重化技術とは
Metaは、画像・動画のセグメンテーションAI「Segment Anything Model(SAM)」シリーズの最新アップデート「SAM 3.1」を公開しました。SAM 3と互換性を保ちながら、動画処理を大幅に効率化する「オブジェクト多重化(object multiplexing)」を導入し、精... -
Metaの新モデル「SAM 3.1」、同時16オブジェクト追跡で動画処理が2倍高速に
Metaが開発を進めるセグメンテーションモデル「SAM 3.1」では、新たに「オブジェクト多重化(object multiplexing)」という仕組みが導入され、1回の計算で最大16個の物体を同時に追跡できるようになりました。これにより、従来と比べて動画処理の速度が約... -
Metaが「TRIBE v2」を公開 人間の脳の反応を予測する基盤モデルとは
Metaは、人間の脳が視覚や聴覚の刺激にどのように反応するかを高精度に予測する基盤モデル「TRIBE v2(Trimodal Brain Encoder)」を発表しました。700人以上・500時間超のfMRI(機能的MRI)データを学習したこのモデルは、新しい被験者や言語、タスクに対... -
脳活動を個人差なく高精度予測 Metaの新モデル「TRIBE v2」が神経科学とAIをつなぐ
Metaが公開した新たな脳活動予測モデル「TRIBE v2」は、映画やオーディオブックを視聴・聴取しているときの脳の反応を、高い精度でシミュレーションできると報告されています。しかも、個々人の脳データで再学習(リトレーニング)しなくても、以前の手法... -
メタ、自社開発AIチップ「MTIA」の進化を公開 次世代AI体験を支えるカスタムシリコン戦略とは
米メタ(Meta)は、自社開発のAI向けチップ「Meta Training and Inference Accelerator(MTIA)」の進化について新たな情報を公開しました。AIモデルの高度化と多様化が加速するなか、汎用GPUだけに依存しない「カスタムシリコン」戦略が、今後の生成AIやS... -
メタがAMDと複数年提携 最大6GW級データセンターでAIインフラ強化へ
米メタ(旧Facebook)は、半導体大手AMDと複数年にわたる新たな提携を結び、最新のGPU「Instinct」シリーズを自社のグローバルインフラに本格導入すると発表しました。計画中のデータセンター容量は約6ギガワット(GW)規模に達するとされ、生成AIを含む大... -
Metaの「Segment Anything」モデル、米研究機関が洪水監視のリアルタイム河川マッピングに活用
Metaが公開した画像認識AI「Segment Anything Models(SAM)」が、米国の研究機関による洪水監視と災害対応の高度化に活用されている。USRA(Universities Space Research Association)とUSGS(米国地質調査所)は、このモデルを河川マッピングに特化して... -
Metaが音声分離エンジン「PE-AV」をオープンソース化 映像×音声AIの新たな基盤に
米Meta(旧Facebook)は、同社の最先端音声分離システム「SAM Audio」を支える技術エンジン「Perception Encoder Audiovisual(PE-AV)」をオープンソースとして公開すると発表しました。音と映像を同時に理解するこのモデルの公開は、クリエイターや研究... -
Metaの研究者が「SAM 3」など最新AIを語る Reddit AMA開催へ
米時間の明日午後2時(太平洋時間)、Metaの研究者チームが、最新のAIプロジェクト「SAM 3」「SAM 3D」「SAM Audio」について語るReddit AMA(Ask Me Anything)を開催します。最前線の研究者に直接質問できる貴重な機会として、世界のAIコミュニティから... -
Metaが新AIモデル「SAM Audio」を公開 テキキスト・画像・時間指定で“欲しい音だけ”を抽出
Metaは、複雑な音の混ざった音声データから、テキストや画像、時間指定などの指示に基づいて特定の音だけを抜き出せる新しいAIモデル「SAM Audio」を発表しました。音声編集や動画制作、アクセシビリティ向上など、幅広い分野での活用が期待されています。... -
Metaが新音声分離AI「SAM Audio」を発表 従来モデルを大幅性能超えとアピール
米Metaが、新たな音声分離AIモデル「SAM Audio」を発表しました。従来手法を多くのベンチマークで上回るとされ、雑踏の中の声や特定の楽器だけをクリアに取り出すといった、高度な音声処理の可能性を一段と押し広げる技術として注目されています。 SAM Aud... -
Metaの「Segment Anything」体験サイトに新機能 SAM Audio・SAM 3D・SAM 3で広がる可能性
画像のあらゆる部分を自動で切り出せることで注目を集めたMetaの「Segment Anything」。その体験サイト「Segment Anything Playground」に、新たにSAM Audio・SAM 3D・SAM 3が加わり、画像だけでなく音声や3Dデータまで対象を広げつつあります。 Segment A... -
Metaらが世界の森林を高精度に「見える化」 オープンソースの樹冠高さマップ第2版を公開
米Metaは、世界資源研究所(World Resources Institute, WRI)と連携し、地球上の森林の高さを高解像度で推定するオープンソースモデル「Canopy Height Maps v2(CHMv2)」を発表しました。人工衛星画像に特化したAIモデルを活用し、前世代より精度と一貫... -
オープンソース衛星AI「CHMv2」が森林保全とカーボンオフセットを変える
衛星データとAIを組み合わせた新モデル「CHMv2」が、米欧を中心とした公共セクターで既に活用され、森林の管理やカーボンオフセットの精度向上に貢献し始めています。本モデルはオープンソースとして公開されており、世界各地の研究者や行政機関が、森林再...

