エンバカデロでは、RAD StudioのIDEに「Smart CodeInsight」と呼ばれるAIコーディング支援機能と、GetItパッケージマネージャから追加ダウンロードできるAIコンポーネントパック「SmartCore AI」を提供しています。
Smart CodeInsightは、RAD Studio / Delphi / C++Builder IDEに統合されたAIチャットペインです。質問を入力することでAIから回答を得たり、コードエディタのコンテキストメニューから実行できるAIコマンドによって、選択したテキスト(コード)に対してAI機能を実行したりできます。
コンテキストメニューから実行できるコマンドには、コメントの追加、コードの検査、ユニットテストの作成などがあります。
IDEの[ツール|オプション]メニューで、ダイアログの「IDE」-「スマート支援機能」を選択し、設定を行います。Smart CodeInsightはデフォルトで無効になっているため、ここで有効化したり、使用するバックエンドLLMを設定します。チャットコマンドとエディタコマンドで、別々のLLMを設定することもできます。
いいえ。RAD Studio / Delphi / C++Builder 13 Florenceをインストールしてから、[ツール|オプション]メニューでSmart CodeInsightを有効化するか、GetItでSmarCore AIコンポーネントをインストールするまで、IDEではAI機能は表示されず、アクティブにもなりません。AI機能を使用するには、適切なAIプロバイダーのアカウントを作成して必要なキーを取得するか、ローカルのオフラインLLMを構成してAI機能を有効化する必要があります。
はい。AI機能は[ツール|オプション]メニューでいつでも無効にすることができます。また、RAD Studio IDEで使用するバックエンドLLMも、いつでも変更することができます。
データの扱いは、選択したバックエンドのLLMによってまったく異なります。Ollamaなどのローカルエンジンの場合、データはコンピューター外に送信されることは一切ありません。OpenAI、Gemini、Claudeを選択すると、選択したデータは、各AIプロバイダーのライセンス契約、利用規約、プライバシーおよび知的財産保護の規定に従ってサーバーに送信されます。
いずれの場合も、データはエンバカデロのバックエンドには送信されず、モデルのトレーニングを含め、いかなる方法でも、エンバカデロがデータの取得や処理を行うことはありません。
OllamaなどのローカルLLMを使用する場合は、別途開発者がローカル環境にLLMを構成するためのダウンロード作業で必要となる以外、インターネット接続は不要です。それ以外のAIプロバイダーによって提供されるすべてのLLMを使用する場合は、インターネット接続が必要となります。
RAD Studioでは、4つAPI / LLMベンダーをサポートしており、各LLMベンダーがそれぞれ異なるモデルを提供しています。RAD Studio IDEでは、エンドポイントを設定し、アクセスキーを入力することで、コンボボックスに利用可能なモデルが表示されるので、ここから使用するモデルを選択することができます。なお、モデルによってコストが異なる場合があります。
Smart CodeInsightの設定は、[ツール|オプション]メニューで確認できます。SmartCore AIでは、接続するAIの設定はコンポーネントのプロパティ設定で行います。
SmartCore AIコンポーネントパックは、RAD Studio / Delphi / C++Builderを用いて構築するアプリケーションにAI機能を追加できるコンポーネントセットです。SmartCore AIは、デフォルトではインストールされておらず、RAD StudioのIDEから実行できるGetItパッケージマネージャを用いて追加ダウンロードできます。
まず、 GetItパッケージマネージャでSmartCore AIコンポーネントパックをダウンロードします。コンポーネントパレットに「SmartCoreAI」というタブが追加されるので、ここに登録されたAI Connectionなどのコンポーネントをアプリケーションに追加します。AI Connectionコンポーネントを用いれば、設定ダイアログで使用するLLM(ローカルまたはホスト)を設定し、APIキーやモデルを指定することができます。