Ubuntu Weekly Recipe

第860回Ubuntu+Visual Studio Code+Ollamaでプログラムの相談をする

今回はVisual Studio CodeAI Toolkit for Visual Studio Codeをインストールし、Ollamaのフロントエンドとして使用する方法を紹介します。

AIにプログラムを書かせるところまでしなくても

世間ではAI(LLM)にプログラムを書いてもらって云々という話題をよく見かけますが、そこまではしなくても、プログラムに関する悩みごとがパパっと解決したらいいなと思うことはよくあります。たいていは試行錯誤の上で解決するので、LLMに悩みを聞いてもらって解決できたら、ずいぶんと生産性が上がることでしょう。もっといい書き方あるのではないかと訝しんだり、思いつかない不具合があるのではないかと疑心暗鬼になることもあります。そんなときも、LLMに聞いてもらえればそれなりの答えが期待できます。とはいえあまり大事にはしたくないので、ローカルで動作するLLMを使用したいところです。

そんなときに検討したいのが、Visual Studio Code(以下VS Code)AI Toolkit for Visual Studio Code(以下AI Toolkit)拡張です。いくつかの機能がありますが、⁠Playground」でプロンプトを入力できます。換言すると、VS CodeがOllamaのフロントエンドになります。

たったそれだけといえばそれまでですが、別アプリに切り替えることによって思考が途切れることを避けることができるのは、大きなメリットといえます。

使用したバージョン

今回使用したバージョンは、Ubuntu 24.04 LTS、Visual Studio Code 1.99.3、AI Toolkit for Visual Studio Code 0.10.9です。

GPUはNVIDIA GeForce RTX 3060としました。ドライバーのバージョンは、第869回と同じく550です。

Ollamaのセットアップ

Ollamaのセットアップ方法はいくつかありますが、オーソドックスにインストールスクリプトを実行する方法にします。OllamaはGo言語で書かれており、依存関係が極めてシンプルでアンインストールも簡単であり、インストールスクリプトを使用することによるデメリットは多くありません。

端末から次のコマンドを実行します。

$ sudo apt install curl
$ curl -fsSL https://ollama.com/install.sh | sh

しばらく待っていれば、インストールが完了します。またその時点で起動もしています。

試してはいませんが、AMDのGPUを使用している場合は追加で次のコマンドを実行します。

$ curl -L https://ollama.com/download/ollama-linux-amd64-rocm.tgz -o ollama-linux-amd64-rocm.tgz
$ sudo tar -C /usr -xzf ollama-linux-amd64-rocm.tgz

Ollamaの実行にはモデルも必要なのでダウンロードします。モデルはリストから見つけるのが簡単です。実はここに表示されているものがすべてというわけではありませんが、よほど特定のモデルを使用したいということがなければ、ここにあるポピュラーなものから探すといいでしょう。

今回はGeForce RTX 3060でVRAMは12GBなので、これにあったモデルをインストールします。執筆段階で一番のお気に入りはMicrosoftのPhi-4なので、これにします。VRAMが16GB程度までであればおすすめです。VRAMが4GB程度であれば候補となるのはPhi4-miniですが、やはり使用感は厳しいです。

他にもDeepCoderGemma 3などもインストールしています。

インストール方法は、モデルのページに書かれているコマンド、具体的には

$ ollama run phi4

ですが、これだと実行してしまうので、ダウンロードするだけであれば

$ ollama pull phi4

とするのがおすすめです。

もちろんモデルは複数インストールでき、切り替えも簡単なので(後述⁠⁠、さまざまなモデルをインストールして結果を比較することによってお気に入りのモデルを見つけましょう。

AI Toolkitのセットアップ

VS Codeのインストール方法は解説しませんが、snapパッケージではなくDebianパッケージ版を使用します。

拡張機能は通常と同じく、⁠ai toolkit」などで検索してインストールします図1⁠。

図1 AI Toolkit拡張機能をインストールする

AI Toolkitをインストールすると、左端のアクティビティバーに「AI Toolkit」という項目が表示されるので、ここをクリックします図2⁠。

図2 アクティビティバーにあるAI Toolkitをクリックしたところ

ここからは実際にOllamaで使用するモデルを選択します。図2の中央右にある「Add model」をクリックすると「Select models from Ollama library」が表示されるので、ここをクリックします図3⁠。

図3 ⁠Add Model」をクリックしたところ

続けてインストールされているモデルが表示されるので、使用したいモデルをクリックして「OK」をクリックします図4⁠。

図4 インストールされているモデルが表示されたところ

これで準備が整いました。

実際に使用してみる

では実際に使用してみましょう。ここで提示するサンプルはなかなかに難しいですが、筆者が実際に書いたPythonスクリプトに対して改善できるところがあるかどうかと、実際に改善した変更点をスクリプトに反映してもらうことにしました。

左端のアクティビティバーにある「AI Toolkit」をクリックし、⁠Tools」にある「Playground」を開きます。使用するモデルを右ペインの「Model」から選択し、判断してほしいスクリプト全体をコピーしてそれを依頼項目とともにプロンプトとして貼り付けます。依頼は「次のソースコードを解析し、改善点を指摘し、それを元のソースコードに反映してください」としました図5⁠。

図5 Phi-4に厳しく指摘されているところ

そもそもあまり長くないスクリプトであり、GeForce RTX 3060でも数秒(10秒はかからず)で結果を日本語で表示してくれました。日本語で問い合わせても英語で返すモデルもありますが、解読に時間がかかるので日本語のほうがいいに越したことはありません。

Playgroundの便利なところは同じプロンプトで別のモデルへの問い合わせが簡単にできることです。プロンプト入力欄の左上にある再読込ボタンをクリックしてモデルを変更すると、それだけで問い合わせが実行されます図6⁠。

図6 モデルの変更も簡単にできる

ちょっとこの結果は気に入らないな、ということがあったら、即座に別解を求められるのはとても便利であり、AIでやってほしいことの1つでしょう。

おすすめ記事

記事・ニュース一覧