業務のみならず日常生活においても LLM や AI 系のツールを使うことが普通になってきました。 自分の整理も兼ねて、現在どのようなツールをどのように使っているのか、まとめてみようと思います。
ここに記載する内容は2025年3月時点のスナップショットです。完全に主観で、生活に溶け込んで日常的に利用しているものをピックアップしています。実験的に使っているものは含めていません。
AI 系のツールは本当に目まぐるしく進化しています。数カ月後に同じツールを使っているとは限らないでしょう。これは定期的に AI ツールの使い方を記録し定点観測を行うことで、将来振り返ったときにどのような変遷を辿ったのかを確認する試みでもあります。よろしければどうぞお付き合いください。
ツール
Claude
使い方:
- 全般的な壁打ち相手
- 執筆支援
- コード生成
メインの Chat ベースの LLM は Claude を使用しています。モデルは Claude 3.7 Sonnet を使うことが多いです。タスクに応じて Normal / Extended モードを使い分けています。
全般的なアイデア(事業に関することや実装の相談など、本当にさまざま)の壁打ちや、文章の作成、ちょっとしたコードの実装をしばしば依頼しています。
また、Claude に限りませんが、LLM が登場してから手元で実行したいちょっとした処理に関するスクリプトを簡単に生成してもらう機会が増えました。いわゆる「使い捨てのコード」というやつです。
例えば、手元にある画像をまとめて webp 形式に圧縮したいとき、そのためのスクリプトを瞬時に生成してもらう、といったケースがあります。
Cursor
使い方:
- メインのコードエディタ
- 個人のナレッジベース (Obsidian) の RAG インターフェイス
コードエディタは主に Cursor を利用しています。 メインの使い方はコーディングですが、工夫次第ではあらゆる用途に使えると考えています。
例えば、Obsidian と組み合わせ利用することで、個人のナレッジベースをソースにした RAG のインターフェイスのように利用することもできます(下記ポストを参照)。 自分が書いたメモやノートを基に回答を生成してくれるので、自分の知識を拡張するのに非常に役立ちます。
プロダクトネジメントに関わる情報を格納して、プロダクトマネージャーをエンパワーすることだってできます [8] 。
ポイントは Cursor のような高機能な IDE をハブにして、あらゆる情報をテキストベースで持ちつつ、必要に応じて MCP などで外部と接続をする仕組みを作り上げるだと考えています。 このあたりはまた言及したいですが、ここでは深入りせずにとどめようと思います。
なお、Cursor は Claude 3.7 Sonnet のような上位モデル (Premium モデル) の利用には回数制限があるため、タスクによっては Claude に直接質問をすることもあります(節約)。 GitHub Copilot を併用したりもします。
コーディングにおいては、扱うプロジェクトによっては Cline を利用することもあります。
Perplexity
使い方:
- 事実の検索
- 時事ニュース、史実の確認など
- 映画やアニメなどの感想・評価
- モバイルから使う
これまで Google で検索していたような事実の検索は、Perplexity を利用することが増えてきました。 出先などでモバイルから利用することも多く、ググるから「パプる」 [1] に本格的に移行しつつあります。
Perplexity を使い始めてから、ちょっとしたことでも疑問に思ったらさっと質問することが増えました。 今までだと、Google 検索ですら面倒になって後回しにしてしまうことが多々あった(怠惰)のですが、Perplexity でとりあえず検索してさっと要点を把握する、といった行動を取るようになりました。
質問内容は主に「事実として回答がほぼ決まっているもの」についてです。 例えば、時事ニュースや史実の確認などです。
また、映画やアニメの感想など、ネット上に散らばっている意見をまとめて見たいときにも利用しています。具体的には「アニメ『XXX』の評価をまとめて」といった質問をするとレビューをまとめてくれます。
Claude や ChatGPT のような基盤モデルは基本的に学習データのカットオフがあり、最新の情報から回答を作成することができません。一方で Perplexity はデフォルトで検索した情報源と組み合わせた回答となるため、最近の情報に対しても比較的正確な回答を出力してくれます。
ChatGPT にも Web 検索の機能がありますが、Perplexity の情報源の検索を前提としたユーザー体験が好みのため利用しています。
欲を言えば、検索対象にする情報ソースをより詳細に指定できたり、契約している有料メディア (paywall) も接続できる仕組みがあると、より満足のいく検索ができると思います。とはいえ、現状でも情報の素早い確認という点では十分満足しています。
Google も AI mode と呼ばれる新しい検索体験を開発中 [7] だったり、Claude も Web Search 機能 [9] をリリースしたようなので、この検索まわりはどのように便利になっていくか楽しみです。
Gemini
使い方:
- YouTube 動画に関する質問
- モバイルから使うことも多い
Gemini はご存知の通り Google が開発元であるが故に Google 系のソフトウェアスイートと相性がよいです。 YouTube の動画リンクも解釈できるため、動画内容の要約や質問をすることがあります。
Gmail や Google Drive、Google Docs などからも利用できますが、それらは今のところあまり活用しきれていません。
Google AI Studio
使い方:
- 高性能モデルのテスト
- 新しい機能などの実験
Google AI Studio では、Gemini の新しいモデルや高性能モデル、新しい機能を試すことができるため、実験として使うことが多いです。Gemini とできることが重複している部分もあるので、Google AI Studio を好んで使うこともあります。
最近では画像生成の精度がエグいと話題に [2] なりました。実際にいくつか試してみましたが、本当にすごいです。私生活における使い所はあまりまだ見つかっていないですが、どこかのタイミングで使えるときが来るかもな、くらいの温度感を持っています。
NotebookLM
使い方:
- 特定のトピックに関するリサーチ
- 複数の YouTube 動画をリソースにしたリサーチ
NotebookLM もよく利用します。単一のトピックに関するドキュメントを格納し、概要の把握や質問をする、といった使い方をすることが多いです。
日常生活における使用例だと、気になっている家電についての情報を NotebookLM に入れ、利点や欠点の概要を把握するといった用途に便利です (下記ポスト)。
業務における例だと、論文やホワイトペーパーを格納して内容を分析したり、特定の人物の発信内容をまとめる際などに利用できます。DeNA の南場さんの使い方も参考になります [3] 。
Grok
使い方:
- X ポスト内容の解説
- X ポストを検索対象に含めたリサーチ
- 音声会話
Grok は主に X 上に存在する情報について検索や解釈をしたいときに利用します。
最近は長文のポストも増えてきていますが、ひとまずさっと内容を把握したいときに、ポスト上に表示されている "Explain this post" ボタンを活用して要約を見ることがあります。
さらに特徴的な機能が、ボイスモードです。xAI らしく、かなり挑発的な機能展開をしています。「ロマンチック」や「陰謀論」、「教授」など、様々なモード [4] を公開しており、英会話の練習機会として時々利用しています。
ChatGPT
使い方:
- Deep Research
- 音声会話 (Advanced Voice Mode)
OpenAI が提供する ChatGPT は主に Deep Research で利用します。Deep Research 系のツールは複数出ていますが、最も "Deep" なリサーチをするのは OpenAI の Deep Research だと感じています [6] 。
また、ChatGPT の Advanced Voice Mode はボイスモードとして非常に洗練されているため、英会話の練習に最適だと思います。おすすめです。
Notion AI
使い方:
- 社内ドキュメントの検索
- 文書の修正
社内でナレッジベースに Notion を利用しているため、Notion AI を使うことがままあります。
基本的には文書の検索や、文章の修正です。検索においては GitHub や Slack とも連携しているため、横断的な検索ができるので便利です。
LLM を使う際に意識していること
ここまで、ざっと日常的に使っているツールをざっと紹介してきました。
LLM / AI 系のツールの活用は便利ですが、その特性を理解したうえで利用しないと、思い通りに動作させることができなかったり、思わぬ勘違いやミスを引き起こす可能性があります。
ここでは、自分が現時点で LLM を使う上で気をつけていることについて、簡単にまとめます。
- LLM に渡すコンテキストを意識する
- 最初から完璧な答えを求めない
- 小さく質問し、小さく行動させる
- 回答を鵜呑みにしない
LLM に渡すコンテキストを意識する
LLM からの回答を最大限引き出すには、当然ながら必要な情報を、なるべく整理された形で渡す必要があります。
アドホックなプロンプトであれば、プロンプト内にファイルを添付したり、文書をペーストすることでコンテキストを渡せます。
コンテキストを繰り返し利用するならば、事前に渡したい情報を保存できる仕組みを利用しましょう。 Claude であれば Projects、Cursor であれば @commands
、Perplexity であればスペースといった機能が活用できます。 これらの機能を把握したうえで、回答に必要と思われる情報を添付することが重要です。
また、明確な指示を出すことも大切です。さまざまなプロンプトのベストプラクティス [5] が公開されています。それらを参考にしつつ、出力してほしい情報は何なのか、どういう形式で欲しいのか、可能な限り明確に指示を出すことを心がけています。
最初から完璧な答えを求めない
基本的にプロンプト一撃で完璧な答えが返ってくることはまずない、というメンタルでいます。
特に LLM に依頼したい内容が複雑であればあるほど(記述量の多いスクリプトなど)、都度アウトプットに的確な修正指示を出しながら、ブラッシュアップしていく過程が欠かせません。
修正指示を出す過程はやや面倒ですが、この過程を経ないと中途半端な結果で終わりがちです。そもそもゼロから自分でやるよりは圧倒的に早いので、修正サイクルを回す時間くらいは取るべきだと思います。
また、実際にアウトプットを作成させる前に、実行の方針を提示させるというのも有効な手段だと感じています。事前に実行内容の概要を把握できるので、効率がよいです。
小さく質問し、小さく行動させる
変更指示があいまいで大きすぎると、間違った方向性でも出力を続けてしまい、結果として満足のできない結果になることがよくあります。
LLM に与える指示は、できるだけ小さく、独立した形で渡し、小さく行動させることが重要です。
回答を鵜呑みにしない
そして一番重要なのが、回答を鵜呑みにしないことです。当然と言えば当然なのですが、慣れてくるとだんだん盲目的に LLM の出力を信じるようになってきます。
特に、比較的新しい概念を持っていることを前提とした指示を出している場合、自信満々にハルシネーションをしていることがよくあります。
例えば、新しい SDK やライブラリの使い方などが該当します。 llms.txt
が用意されているなら、コンテキストとして渡すのが良いですが、まだまだそのような親切なファイルが用意されていることは少ないように思います。 なるべく公式の情報を参照しながら、LLM のアウトプットが正しいかどうかを確認するようにしています。
Perplexity などを利用する場合は、回答生成の根拠になったソースを提示してくれるので、できるだけ確認します。ソースがない場合は、必要に応じて再度検索するなど裏取りをします。
コードを生成した場合も同様に、挙動をテストすることを怠ってはいけません。
最後に
以上、普段自分が日常的に利用しているツールを中心に、使い方などをまとめました。
日々、界隈の皆さんの使い方を勉強させてもらいながら、自分の使い方に落とし込んでいます。 もしこの記事を読んでいただけて、他にもこういう使い方があるであったり、こっちのほうが良いであったり、もしコメントなどあれば X 等でいただけたら嬉しいです。
ここに記載しているツール以外にも、気になっていたり、使用感を探っているツールは他にもあります。 Roo Code での Vibe coding や、Coding agent 系の Goose や Claude Code、Devin、自然な会話を行えると話題の Sesame、Reddit の Reddit Answers、ローカル LLM や SLM (Small Language Model) などなど...本当に枚挙にいとまがない状態です。
AI のツールは日進月歩で進化しています。1年後に振り返ってみたら、ここで使っているツールも変わっていることでしょう。その変化を自分で見るのが今から楽しみです。
最後までお読みいただきありがとうございました。