JetBrains IDEをご利用の皆様はAI Assistantを活用していますか?
AI AssistantはIDEが解析済みのインデックス情報を活用することでソースコードのスキャンを減らし、少ないトークンでより賢い開発ワークフローを実現することができます。
それでも多用しているとAIクレジットの消費は気になるものです。
そこで試していただきたいのがローカルモデルの利用です。AI AssistantはGPTやGemini、ClaudeやGrokなど、著名なモデルを自由に選択できるだけでなく、LM StudioやOllamaといったLLMを手元で手軽に動かせるツールを通じて、無料でAIを使ったワークフローを実現できます。
ここではLM Studioを使った方法をご紹介します。
LM Studioのインストール
LM Studioは各種LLMのダウンロード、実行、そして対話型チャットインターフェース、言語モデルのサーバを備えた統合ツールで、macOS、Windows、Linuxに各アーキテクチャ向け(macOSのIntelアーキテクチャを除く)が用意されています。商用、非商用を問わず無償でご利用いただけます。

LM Studioを利用するにはまず公式サイトよりご利用のプラットフォーム向けのインストーラーをダウンロードしてください。インストールは簡単で、例えばmacOSではアプリケーションフォルダへドラッグアンドドロップするだけで完了します。

書きかけ。なんやかんやインストールや初期動作確認を書く。
LM Studioのサーバをスタート
LM Studioでロードしたモデルを他のアプリケーションから使えるようにするためにはサーバを起動する必要があります。
起動は簡単で、macOSの場合はツールメニューより"Start Server on Port 1234…"を選択するだけです。
AI Assistantの設定
AI AssistantからLM Studioを使うようにする設定は簡単です。IDEの設定画面を開き、[ツール]>[AI Assistant]>[モデル]>[サードパーティAIプロバイダー]にて、"LM Studio"を選択します。
"URL:" 欄には"http://localhost:1234/v1"を入力します。このURLはメニューバーのLM Studioのアイコンより"Copy LLM Server Base URL"でクリップボードのコピーして貼り付けることもできます。
URLの設定まで終わったら[接続のテスト]を押して、[接続完了]となるのを確認しましょう。