Ollama + OpenWebUIを利用したローカルLLM(大規模言語モデル)環境でRAGを利用する場合、Embeddingモデルを利用するか、すべてコンテキストとして読み込む(Full Context Mode)かを選ぶ事が可能です。 一般的なゲーミングPCローカルの場合、GPUメモリの制限で8k〜128k ...
RAG登録時に利用するOpenWebUIデフォルト「コンテンツ抽出エンジン」は精度が悪いと聞きましたので調査して環境変更を実施しました。 Ubuntu+Docker+OpenWebUI+Ollama環境で、Docling+RapidOCRを利用する方法を以下に解説します。 OpenWebUIで利用可能な「コンテンツ抽出 ...
一部の結果でアクセス不可の可能性があるため、非表示になっています。
アクセス不可の結果を表示する