次の方法で共有


クラウドベースの AI モデルとローカル AI モデルを選択する

アプリ開発者が AI 機能を統合しようとしている場合、Microsoft Windows は、ローカルのオンデバイス処理とスケーラブルなクラウドベースのソリューションの両方をサポートする包括的で柔軟なプラットフォームを提供します。

クラウドベースの AI モデルとローカル AI モデルの選択は、特定のニーズと優先順位によって異なります。 次の要素を検討する必要があります。

  • データのプライバシー、コンプライアンス、セキュリティ
  • リソースの可用性
  • アクセシビリティとコラボレーション
  • 費用
  • メンテナンスと更新
  • パフォーマンスと待機時間
  • スケーラビリティ
  • 接続の要件
  • モデルのサイズと複雑さ
  • ツールと関連するエコシステム
  • カスタマイズと制御

アプリ開発者の主な決定要因

  • データのプライバシー、コンプライアンス、セキュリティ

      • ローカル、オンプレミス: データはデバイス上に残っているため、モデルをローカルで実行すると、セキュリティとプライバシーに関する利点が得られます。データ セキュリティはユーザーにかかっています。 開発者は、更新プログラムを管理し、互換性を確保し、セキュリティの脆弱性を監視する責任を負います。
      • 雲: クラウド プロバイダーは堅牢なセキュリティ対策を提供しますが、データをクラウドに転送する必要があるため、場合によっては、ビジネスまたは App Service の保守担当者のデータ プライバシーの問題が発生する可能性があります。 クラウドにデータを送信するには、データの性質とアプリが動作するリージョンに応じて、GDPR や HIPAA などのデータ保護規則にも準拠する必要があります。 クラウド プロバイダーは通常、セキュリティ更新プログラムとメンテナンスを処理しますが、ユーザーは、セキュリティで保護された API とデータ処理のベスト プラクティスに従っていることを確認する必要があります。
  • リソースの可用性

    • ローカル、オンプレミス: モデルの実行は、CPU、GPU、NPU、メモリ、ストレージ容量など、使用されているデバイスで使用可能なリソースによって異なります。 これは、デバイスに高いコンピューティング能力または十分なストレージがない場合に制限される可能性があります。 Phiなどの小さな言語モデル (SLB) は、デバイスでのローカル使用に適しています。 Copilot+ PC ではMicrosoft Foundry on Windowsでサポートされるすぐに使用できる AI 機能を備えた組み込みのモデルが提供されます。

      • 雲:Azure AI サービスなどのクラウド プラットフォームは、スケーラブルなリソースを提供します。 必要な量のコンピューティング能力またはストレージを使用でき、使用した分だけ支払うことができます。 OpenAI 言語モデルのような大規模な言語モデル (LLM) は、より多くのリソースを必要としますが、より強力です。
  • アクセシビリティとコラボレーション

      • ローカル、オンプレミス: モデルとデータは、手動で共有しない限り、デバイスでのみアクセスできます。 これにより、モデル データのコラボレーションがより困難になる可能性があります。
      • 雲: モデルとデータは、インターネット接続を使用してどこからでもアクセスできます。 これは、コラボレーション シナリオに適している場合があります。
  • 費用

    • ローカル、オンプレミス: デバイス ハードウェアへの初期投資を超える追加コストは発生しません。

    • 雲: クラウド プラットフォームは従量課金制モデルで動作しますが、使用されるリソースと使用期間に基づいてコストが蓄積される可能性があります。

  • メンテナンスと更新

    • ローカル、オンプレミス: ユーザーは、システムの保守と更新プログラムのインストールを担当します。

    • 雲: メンテナンス、システム更新プログラム、および新機能の更新プログラムはクラウド サービス プロバイダーによって処理されるため、ユーザーのメンテナンスオーバーヘッドが軽減されます。

  • パフォーマンスと待機時間

    • ローカル、オンプレミス: データをネットワーク経由で送信する必要がないため、モデルをローカルで実行すると待機時間が短縮されます。 ただし、パフォーマンスはデバイスのハードウェア機能によって制限されます。

    • 雲: クラウドベースのモデルは強力なハードウェアを利用できますが、ネットワーク通信のために待機時間が発生する可能性があります。 パフォーマンスは、ユーザーのインターネット接続とクラウド サービスの応答時間によって異なる場合があります。

  • スケーラビリティ

    • ローカル、オンプレミス: ローカル デバイスでモデルをスケーリングするには、ハードウェアの大幅なアップグレードや、より多くのデバイスの追加が必要になる場合があり、コストと時間がかかる場合があります。

    • 雲: クラウド プラットフォームは簡単なスケーラビリティを提供し、物理的なハードウェアの変更を必要とせずに、必要に応じてリソースをすばやく調整できます。

  • 接続の要件

    • ローカル、オンプレミス: ローカル デバイスでは、モデルを実行するためにインターネット接続は必要ありません。これは、接続が制限された環境で役立つ可能性があります。

    • 雲: クラウドベースのモデルでは、アクセスに安定したインターネット接続が必要であり、ネットワークの問題の影響を受ける可能性があります。

  • モデルのサイズと複雑さ

    • ローカル、オンプレミス: ローカル デバイスでは、ハードウェアの制約により実行できるモデルのサイズと複雑さに制限がある場合があります。 Phiなどの小さいモデルは、ローカル実行に適しています。

    • 雲: クラウド プラットフォームは、スケーラブルなインフラストラクチャにより、OpenAI によって提供されるモデルなど、より大規模で複雑なモデルを処理できます。

  • ツールと関連するエコシステム

    • ローカル、オンプレミス:Microsoft FoundryMicrosoft Foundry on Windows、Windows ML、Foundry Localなどのローカル AI ソリューションは、Windows App SDK や ONNX Runtime と統合されるため、開発者は外部の依存関係を最小限に抑えて、デスクトップ アプリまたはエッジ アプリにモデルを直接埋め込むことができます。

    • 雲:Microsoft Foundry、Azure AI サービス、Azure OpenAI Service などのクラウド AI ソリューションは、AI アプリケーションを構築するための包括的な API と SDK のセットを提供します。 これらのサービスは、 Azure DevOps、GitHub Copilot、セマンティック カーネル、およびその他の Azure サービスとシームレスに統合するように設計されており、エンドツーエンドのオーケストレーション、モデルのデプロイ、大規模な監視が可能になります。

  • カスタマイズと制御

    • ローカル、オンプレミス: ローカル モデルは、高度な専門知識を必要とせずに、すぐに使用できます。 Microsoft Foundry on Windows には、使用できる Phi Silica などのモデルが用意されています。 または、 Windows ML を使用すると、開発者は ONNX Runtime でトレーニングされたカスタム モデルなどのカスタム モデルを Windows デバイスで直接実行できます。 これにより、モデルとその動作を高度に制御できるため、特定のユース ケースに基づいて微調整と最適化が可能になります。 Foundry Local また、開発者は Windows デバイス上でモデルをローカルで実行できるため、モデルとその動作を高度に制御できます。

    • 雲: クラウドベースのモデルには、すぐに使用できるオプションとカスタマイズ可能なオプションの両方も用意されているため、開発者は事前トレーニング済みの機能を活用しながら、特定のニーズに合わせてモデルを調整できます。 Microsoft Foundry は、エンタープライズ AI 運用、モデル ビルダー、およびアプリケーション開発のための統合 Azure サービスとしてのプラットフォーム オファリングです。 この基盤は、運用グレードのインフラストラクチャとわかりやすいインターフェイスを組み合わせたものです。これにより、開発者はインフラストラクチャを管理するのではなく、アプリケーションの構築に集中できます。

クラウド AI サンプル

クラウドベースのソリューションが Windows アプリのシナリオに適している場合は、以下のチュートリアルに興味があるかもしれません。

多くの API を使用して、クラウドベースのモデルにアクセスして、 Windows アプリの AI 機能を活用できます。これらのモデルがカスタマイズされているか、すぐに使用できるかに関係なく。 クラウドベースのモデルを使用すると、リソースを集中的に使用するタスクをクラウドに委任することで、アプリを合理化し続けることができます。 Microsoft または OpenAI によって提供されるクラウドベースの AI ベースの API を追加するのに役立つリソースをいくつか次に示します。

  • OpenAI チャットの入力候補を WinUI 3/ Windows に追加するApp SDK デスクトップ アプリ: クラウドベースの OpenAI ChatGPT 完了機能を WinUI 3/ Windows App SDK デスクトップ アプリに統合する方法に関するチュートリアルです。

  • WinUI 3/ Windows に DALL-E を追加するApp SDK デスクトップ アプリ: クラウドベースの OpenAI DALL-E イメージ生成機能を WinUI 3/ Windows App SDK デスクトップ アプリに統合する方法に関するチュートリアルです。

  • .NET MAUI と ChatGPT を使用してレコメンデーション アプリを作成する: クラウドベースの OpenAI ChatGPT 完了機能を .NET MAUI アプリに統合するサンプルレコメンデーション アプリを作成する方法に関するチュートリアルです。

  • DALL-E を .NET MAUI Windows デスクトップ アプリに追加する: クラウドベースの OpenAI DALL-E イメージ生成機能を .NET MAUI アプリに統合する方法に関するチュートリアルです。

  • Azure OpenAI サービス: Windows アプリで、GPT-4、GPT-4 Turbo with Vision、GPT-3.5-Turbo、DALLE-3、Embeddings モデル シリーズなどの OpenAI モデルにアクセスし、 Azureのセキュリティとエンタープライズ機能を追加する場合は、この Azure OpenAI ドキュメントのガイダンスを参照してください。

  • Azure AI サービス: Azure は、REST API とクライアント ライブラリ SDK を通じて一般的な開発言語で利用できる AI サービスのスイート全体を提供します。 詳細については、各サービスのドキュメントを参照してください。 これらのクラウドベースのサービスは、開発者や組織が、すぐに使用できる事前構築済みのカスタマイズ可能な API とモデルを使用して、インテリジェントで最先端の市場対応の責任あるアプリケーションを迅速に作成するのに役立ちます。 アプリケーションの例には、会話、検索、監視、翻訳、音声、ビジョン、意思決定のための自然言語処理が含まれます。