ガイダンス
LLMサービス講座も、今回が最終回です。
前回はRAGの全体像や流れ、そして実際に演習をしてもらい、コードベースでどのように動いているのかを少しご理解いただけたかと思います。
昨今よくあるRAGのシステムは、前回お話ししたように、社内文書を検索して文章をもとに回答するチャットボットなど、最近最も一般的なユースケースで使われている技術です。弊社の案件でも非常に多いものですが、その際に「RAGを作ったはいいが、精度が上がらない」という点が一番大きな課題として挙げられます。
今回は、その精度が上がらない際、もしくはそういった案件があった際に、どのような考え方で、どういったポイントがあるのかを整理していければと思っています。
まず前回の復習をさせていただき、次にRAGを実装する際に使われるツールについてお話しします。
RAGといっても、一般的なSaaSを使う場合もあれば、DifyやMeeboのようなツールを使うこともあります。
また、LangChainなどを使って自分のコンピューターやオンプレミス環境に構築することもあれば、Azure AI SearchやAmazon Kendraのようなクラウドサービスを利用することもあります。RAGを実装する際にどのようなツールがあるのかを3番目にご紹介します。
その後に、RAGの精度向上のポイントを、分かりやすさを重視してコードベースで解説します。コードベースで理解することで、Azureなどのクラウドや他のSaaSで精度向上を目指す際にも、どこを調整すれば良いのかが体感的に分かり、一番解像度高く理解できると思います。
さらに、実際のプロジェクトを参考にしたRAGの精度向上の進め方として、弊社に来る案件を紹介しながら、実際の手順をお話しします。
最後に、文章以外のRAGの全体像と実装方法についてです。今回は自然言語、つまり文章やテキストに関する話が中心でしたが、実際にRAGで扱いたいデータには、画像、表、折れ線グラフなど様々なものがあります 。そういったケースにどう対応していくのかを、触りだけにはなりますがご紹介します。また、まだ紹介できていない高度なRAG、例えばChatGPTの「Deep Research」のような、様々なものを検索して答える「エージェンティックRAG」という概念も紹介し、一般的なRAGと何が違い、どうアプローチすれば良いのかをお話しできればと思います。
長くなりましたが、目的から改めてお話しします。この4回の講座を通じて、AIの基礎、LLMの基礎、AI駆動開発、そして最近の主要なユースケースであるRAGの構築方法に焦点を当ててきました。
今回は第4回目です。
第1回: AIエンジニアのロードマップとして、AIやLLMの歴史、仕組み、プロンプトについて解説しました。
第2回: AI駆動開発について解説しました。
第3回・第4回: RAGについて深掘りしています。前回はRAGがどのような流れになっているのかをコードを用いて詳しく解説しました。
今回はそれに加え、RAGの精度を上げるには、前回解説したフローのどこをどう調整すれば良いのかをお伝えできればと思います。
この講座が終わった後に身についているスキルとしては、以下の通りです。
RAGの実装方法を理解できる: RAGを実装するためのツールにはどんなものがあり、どう使い分けるのか。
RAGの精度向上のフローを理解できる: どのように精度向上を進め、どこにテコ入れすれば良いのか。
実践的な進め方を理解できる: 実際のプロジェクトでRAGの精度向上が求められた際に、どういう考え方で進めていけば良いのか。
これらをメインでお伝えできればなと思っています。
リツアンと面談していただくと、
すべての書き起こしと録画を見ることができます。