LM Studioを使ったAIクレジットを節約術 #JetBrainsIDEテクニック #jbips

JetBrains IDEをご利用の皆様はAI Assistantを活用していますか?

AI AssistantはIDEが解析済みのインデックス情報を活用することでソースコードのスキャンを減らし、少ないトークンでより賢い開発ワークフローを実現することができます。
それでも多用しているとAIクレジットの消費は気になるものです。

そこで試していただきたいのがローカルモデルの利用です。AI AssistantはGPTやGemini、ClaudeやGrokなど、著名なモデルを自由に選択できるだけでなく、LM StudioOllamaといったLLMを手元で手軽に動かせるツールを通じて、無料でAIを使ったワークフローを実現できます。

ここではLM Studioを使った方法をご紹介します。

LM Studioのインストール

LM Studioは各種LLMのダウンロード、実行、そして対話型チャットインターフェース、言語モデルのサーバを備えた統合ツールで、macOS、Windows、Linuxに各アーキテクチャ向け(macOSのIntelアーキテクチャを除く)が用意されています。商用、非商用を問わず無償でご利用いただけます。

LM Studio公式サイト

LM Studioを利用するにはまず公式サイトよりご利用のプラットフォーム向けのインストーラーをダウンロードしてください。インストールは簡単で、例えばmacOSではアプリケーションフォルダへドラッグアンドドロップするだけで完了します。

書きかけ。なんやかんやインストールや初期動作確認を書く。

LM Studioのサーバをスタート

LM Studioでロードしたモデルを他のアプリケーションから使えるようにするためにはサーバを起動する必要があります。
起動は簡単で、macOSの場合はツールメニューより"Start Server on Port 1234…"を選択するだけです。

AI Assistantの設定

AI AssistantからLM Studioを使うようにする設定は簡単です。IDEの設定画面を開き、[ツール]>[AI Assistant]>[モデル]>[サードパーティAIプロバイダー]にて、"LM Studio"を選択します。
"URL:" 欄には"http://localhost:1234/v1"を入力します。このURLはメニューバーのLM Studioのアイコンより"Copy LLM Server Base URL"でクリップボードのコピーして貼り付けることもできます。

URLの設定まで終わったら[接続のテスト]を押して、[接続完了]となるのを確認しましょう。