この記事では、Azure IoT Operations を使用するときに発生する可能性がある現在の既知の問題の一覧を示します。 このガイダンスは、これらの問題を特定するのに役立ち、使用可能な場合は回避策を提供します。
一般的なトラブルシューティング ガイダンスについては、「 Azure IoT 操作のトラブルシューティング」を参照してください。
MQTT ブローカーの問題
このセクションでは、MQTT ブローカーの現在の既知の問題の一覧を示します。
MQTT ブローカー リソースが Azure portal に表示されない
問題 ID: 4257
ログ署名: N/A
Kubernetes を使用してクラスターで作成された MQTT ブローカー リソースは、Azure portal に表示されません。 この結果が予想されるのは、 Kubernetes を使用した Azure IoT Operations コンポーネントの管理はプレビュー段階であり、エッジからクラウドへのリソースの同期は現在サポートされていないためです。
現時点では、この問題の回避策はありません。
コネクタの一般的な問題
このセクションでは、すべてのコネクタに影響する現在の既知の問題の一覧を示します。
コネクタが Azure Key Vault のデバイス資格情報の更新プログラムを検出しない
問題 ID: 6514
N/A
Azure Key Vault に格納されているデバイス資格情報が更新されると、コネクタは通知を受け取りません。 その結果、コネクタは再起動されるまで古い資格情報を引き続き使用します。
回避策: コネクタを再起動して、Azure Key Vault から更新された資格情報を取得するように強制します。
Akri コネクタの場合、レジストリ エンドポイントでサポートされている認証の種類は次のみです。 artifact pull secrets
問題 ID: 4570
ログ署名: N/A
コネクタ テンプレートでレジストリ エンドポイント参照を指定すると、複数の認証方法がサポートされます。 Akri コネクタでは、 artifact pull secrets 認証のみがサポートされます。
Akri コネクタがレジストリ エンドポイント リソースで動作しない
問題 ID: 7710
バージョン 1.2.154 (2512) 以降で修正されました
ログ署名:
[aio_akri_logs@311 tid="7"] - failed to generate StatefulSet payload for instance rest-connector-template-...
[aio_akri_logs@311 tid="7"] - reconciliation error for Connector resource...
[aio_akri_logs@311 tid="7"] - reconciliation of Connector resource failed...
bicep を使用して RegistryEndpoint リソースを作成し、 ConnectorTemplate リソースで参照すると、Akri オペレーターが ConnectorTemplate を調整しようとすると、前に示したエラーで失敗します。
回避策: Akri コネクタで RegistryEndpoint リソースを使用しないでください。 代わりに、ContainerRegistry リソースのConnectorTemplate設定でレジストリ情報を指定します。
OPC UA のコネクタに関する問題
このセクションでは、OPC UA のコネクタに関する現在の既知の問題の一覧を示します。
イベント名に特殊文字を使用できない
問題 ID: 1532
ログ署名: 2025-10-22T14:51:59.338Z aio-opc-opc.tcp-1-68ff6d4c59-nj2s4 - Updated schema information for Boiler#1Notifier skipped!
イベント名に #、 %、 &などの特殊文字が含まれている場合、スキーマの生成は失敗します。 スキーマ生成の問題を防ぐために、イベント名でこれらの文字を使用しないでください。
メディア用コネクタと ONVIF 用コネクタの問題
このセクションでは、メディア用コネクタと ONVIF 用コネクタに関する現在の既知の問題の一覧を示します。
シークレット同期の競合
問題 ID: 0606
ログ署名: N/A
シークレット同期を使用する場合は、シークレット名がグローバルに一意になるようにします。 同じ名前のローカル シークレットが存在する場合、コネクタは目的のシークレットの取得に失敗する可能性があります。
ONVIF 資産イベントの送信先は、グループまたは資産レベルでのみ構成できます
問題 ID: 9545
バージョン 1.2.154 (2512) 以降で修正されました
ログ署名は次のようになります。
No matching event subscription for topic: "tns1:RuleEngine/CellMotionDetector/Motion"
現在、ONVIF 資産イベントの送信先は、イベント グループまたは資産レベルでのみ認識されます。 個々のイベント レベルで宛先を構成すると、例のようなログ エントリが作成され、MQTT ブローカーにイベント データは発行されません。
回避策として、個々のイベント レベルではなく、イベント グループまたは資産レベルでイベントの送信先を構成します。 たとえば、イベント グループ レベルで defaultEventsDestinations を使用するとします。
eventGroups:
- dataSource: ""
events:
- dataSource: tns1:RuleEngine/CellMotionDetector/Motion
destinations:
- configuration:
qos: Qos1
retain: Never
topic: azure-iot-operations/data/motion
ttl: 5
target: Mqtt
name: Motion
name: Default
defaultEventsDestinations:
- configuration:
qos: Qos1
retain: Never
topic: azure-iot-operations/data/motion
ttl: 5
target: Mqtt
データ フローの問題
このセクションでは、データ フローに関する現在の既知の問題の一覧を示します。
データ フロー リソースが操作エクスペリエンス Web UI に表示されない
問題 ID: 8724
ログ署名: N/A
Kubernetes を使用してクラスターで作成されたデータ フロー カスタム リソースは、操作エクスペリエンス Web UI には表示されません。 この結果が予想されるのは、 Kubernetes を使用した Azure IoT Operations コンポーネントの管理はプレビュー段階であり、エッジからクラウドへのリソースの同期は現在サポートされていないためです。
現時点では、この問題の回避策はありません。
データ フロー プロファイルは、70 個のデータ フローを超えることはできません
問題 ID: 1028
ログ署名:
exec /bin/main: argument list too long
1 つのデータ フロー プロファイルに対して 70 を超えるデータ フローを作成した場合、デプロイはエラー exec /bin/main: argument list too long で失敗します。
この問題を回避するには、複数のデータ フロー プロファイルを作成し、それらの間でデータ フローを分散します。 プロファイルあたり 70 個のデータ フローを超えないでください。
データ フロー グラフでは、特定のエンドポイントの種類のみがサポートされます
問題 ID: 5693
ログ署名: N/A
データ フロー グラフ (WASM) では現在、MQTT、Kafka、OpenTelemetry (OTel) データ フロー エンドポイントのみがサポートされています。 OpenTelemetry エンドポイントは、データ フロー グラフの宛先としてのみ使用できます。 Data Lake、Microsoft Fabric OneLake、Azure Data Explorer、Local Storage などの他のエンドポイントの種類は、データ フロー グラフではサポートされていません。
この問題を回避するには、サポートされているエンドポイントの種類のいずれかを使用します。
- MQTT ブローカーを 使用した双方向メッセージング用の MQTT エンドポイント
- Kafka ブローカーによる双方向メッセージング用の Kafka エンドポイント (Azure Event Hubs を含む)
- 監視プラットフォームにメトリックとログを送信するための OpenTelemetry エンドポイント (宛先のみ)
データ フロー グラフの詳細については、データ フロー グラフ での WebAssembly (WASM) の使用に関するページを参照してください。
チェーンされたグラフ シナリオで同じグラフ定義を複数回使用できない
問題 ID: 1352
構成の送信に失敗しました
1 つのデータ フロー グラフの出力を別のデータ フロー グラフへの入力として使用して、チェーン グラフ シナリオを作成します。 ただし、このシナリオで同じグラフ定義を複数回使用しようとすると、現在は想定どおりに機能しません。 たとえば、次のコードは、graph-passthrough:1.3.6とgraph-1の両方に同じグラフ定義 (graph-2) を使用すると失敗します。
{
nodeType: 'Graph'
name: 'graph-1'
graphSettings: {
registryEndpointRef: dataflowRegistryEndpoint.name
artifact: 'graph-passthrough:1.3.6'
configuration: []
}
}
{
nodeType: 'Graph'
name: 'graph-2'
graphSettings: {
registryEndpointRef: dataflowRegistryEndpoint.name
artifact: 'graph-passthrough:1.3.6'
configuration: graphConfiguration
}
}
nodeConnections: [
{
from: {name: 'source'}
to: {name: 'graph-1'}
}
{
from: {name: 'graph-1'}
to: {name: 'graph-2'}
}
{
from: {name: 'graph-2'}
to: {name: 'destination'}
}
]
このエラーを解決するには、毎回異なる名前またはタグを使用して、必要な回数ずつグラフ定義を ACR にプッシュします。 たとえば、説明したシナリオでは、グラフ定義を別の名前または別のタグ ( graph-passthrough-one:1.3.6 や graph-passthrough-two:1.3.6など) で 2 回プッシュする必要があります。