2025年9月、Microsoftは「Windows ML (Windows Machine Learning)」の正式版を提供開始しました。 Windows MLはONNX Runtimeを基盤としたローカルAI実行環境で、Windows 11 (24H2以降) に標準搭載され、 開発者はC#/C++/PythonからシンプルなAPIを通じてONNXモデルを利用できます。
CPU・GPU・NPUに対応し、AMD・Intel・NVIDIA・Qualcommなど各社の実行プロバイダーを自動的に適用。 デバイスごとにコードを書き分ける必要はなく、ポリシー設定で低消費電力優先・高性能優先の選択も可能です。
ONNX形式のモデルを共通ランタイムで実行。アプリごとにランタイムを同梱する必要がなく、容量削減と更新の自動化を実現します。 高レベルAPIと低レベルAPIが提供され、数行のコードで推論開始が可能です。
実行時最適化に加え、Ahead-Of-Timeコンパイルや量子化、グラフ最適化をサポート。 Visual Studio Code用のAI ToolkitがPyTorchモデルからONNX変換、量子化、圧縮、プロファイリングを支援します。
Windows AIプラットフォームの中核として、Windows AI APIsやFoundry Localと連携。 Windows CopilotなどのOS組込みAI機能の基盤も担っています。
ONNX変換可能なモデルは基本的にすべてサポート。 ResNetやYOLOからT5やLLMまで幅広く、画像分類、音声認識、テキスト分類、要約生成、機械翻訳など多様な分野で活用可能です。
項目 | Windows ML | Core ML | TensorFlow Lite | TensorRT | OpenVINO |
---|---|---|---|---|---|
性能 | 各EPで専用SDK並み性能 | Apple SoC最適化 | モバイル最適化 | GPU性能を極限活用 | Intelハード最適化 |
形式 | ONNX | .mlmodel | .tflite | .plan | .xml+.bin |
プラットフォーム | Windows 11 PC | Appleデバイス | Android/iOS/IoT | NVIDIA GPU | Intel/AMD PC, Linux |
Windows ML正式版は、WindowsをAI時代に適応させる戦略的布石です。 開発者は複雑なハード差異を意識せずAI機能を組み込み、ユーザーはプライベートで低レイテンシなAI体験を享受できます。 今後はAdobeやMcAfeeをはじめ、多様なベンダーによる採用が進むことで、Windowsエコシステム全体のAI活用が加速するでしょう。