イスラエルのAIスタートアップであるAI21 Labsが、英語・フランス語・スペイン語・ポルトガル語に対応した大規模言語モデル「Jamba」を発表しました。Jambaは、従来のTransformerモデルにState Space Model(SSM)のアーキテクチャを組み合わせたSSM-Transformerモデルとなっ ...
テキストや画像、音声、ソースコードなど、さまざまなコンテンツを生成する人工知能(AI)技術である「生成AI」の発展には、深層学習モデルが大きく寄与している。本稿は、その中でも代表的な以下の深層学習モデルについて解説する。 GANは2014年に登場 ...
The proposed Coordinate-Aware Feature Excitation (CAFE) module and Position-Aware Upsampling (Pos-Up) module both adhere to ...
最近のChatGPTなどの生成AI技術では、自然言語処理に特化したTransformerモデルが活躍しています。Transformerモデルが脳波の解析でも高い推定精度を発揮することを示しました。 内臓痛を引き起こしたマウスにおいて、8つの脳領域から記録した脳波データを ...
株式会社秀和システム(東京都・代表取締役会長兼社長 上田智一)は、2025年6月28日、新刊『DETR(DEtection TRansformer)&最新 ...
米NVIDIAが6月25日(現地時間)に公開したDLSS導入用開発者向けキットの最新版において、Transformerモデルのベータ版運用が終了したようだ。加えてドキュメントが更新され、VRAMの消費量が削減されたことについても言及されている。 NVIDIA DLSS SDK 310.3.0の更新で ...
ChatGPTなどの自然な会話が可能なチャットAIのベースとなっている大規模言語モデルは、Googleが開発した機械学習アーキテクチャ「Transformer」を採用しています。そんなTransformerが文脈に沿った自然な文章を出力する仕組みについて、AI専門家のLuis Serrano氏が ...