一般社団法人 次世代社会システム研究開発機構(INGS)は2023年10月16日、『次世代NLP(自然言語処理)と大規模言語モデル(LLM)白書 2023年版』の発刊ならびにその概要を発表した。 本白書は、次世代の自然言語処理(NLP)と大規模言語モデル、AI ...
ChatGPTなどの自然な会話が可能なチャットAIのベースとなっている大規模言語モデルは、Googleが開発した機械学習アーキテクチャ「Transformer」を採用しています。そんなTransformerが文脈に沿った自然な文章を出力する仕組みについて、AI専門家のLuis Serrano氏が ...
イスラエルのAIスタートアップであるAI21 Labsが、英語・フランス語・スペイン語・ポルトガル語に対応した大規模言語モデル「Jamba」を発表しました。Jambaは、従来のTransformerモデルにState Space Model(SSM)のアーキテクチャを組み合わせたSSM-Transformerモデルとなっ ...
立教大学大学院人工知能科学研究科(所在地:東京都豊島区、研究科委員長:大西立顕)の博士後期課程1年次の増村翔さんと瀧雅人准教授の論文が「NeurIPS 2025」(The Thirty-Ninth Annual Conference on ...
最近のChatGPTなどの生成AI技術では、自然言語処理に特化したTransformerモデルが活躍しています。Transformerモデルが脳波の解析でも高い推定精度を発揮することを示しました。 内臓痛を引き起こしたマウスにおいて、8つの脳領域から記録した脳波データを ...
ソフトバンク株式会社は8月21日(水)、AI-RAN(AIを活用した無線アクセスネットワーク)のコンセプトの一つである「AI for RAN」の研究開発において、高性能AIモデル「Transformer(トランスフォーマー)」を活用したAIアーキテクチャーを新たに開発したと発表 ...
言語AIが多様な化合物構造を学習する過程の特徴を発見 ——化学言語モデルとしてのTransformerはキラリティの認識を苦手とする—— 【発表のポイント】 代表的な深層学習モデルであるTransformerが多様な化合物構造を学習していく過程を、モデルが認識する ...
米NVIDIAが6月25日(現地時間)に公開したDLSS導入用開発者向けキットの最新版において、Transformerモデルのベータ版運用が終了したようだ。加えてドキュメントが更新され、VRAMの消費量が削減されたことについても言及されている。 NVIDIA DLSS SDK 310.3.0の更新で ...
米NVIDIAが6月25日(現地時間)に公開したDLSS導入用開発者向けキットの最新版において、Transformerモデルのベータ版運用が終了したようだ。加えてドキュメントが更新され、VRAMの消費量が削減されたことについても言及されている。 「NVIDIA DLSS」に使われる ...