エッジ AI とは

URL をコピー

 

Red Hat OpenShift AI で、あらゆる環境での AI の導入を迅速化

Red Hat® OpenShift® AI が統合されたツール、反復可能なワークフロー、柔軟なデプロイメント・オプション、および信頼できるパートナーエコシステムを通して AI/ML モデルのライフサイクル全体とアプリケーションの提供をどのように加速するのかを、この動画でご確認ください。

エッジ AI (人工知能)、またはエッジ上の AI とは、エッジコンピューティング環境における AI の実装、つまりエッジデバイスに直接搭載した AI のことです。そのため、一元化されたクラウド・コンピューティング施設やオフサイトのデータセンターではなく、データが実際に収集された場所の近くで計算処理を実行できます。エッジ AI により、クラウドやオフサイトデータセンターに接続しなくても、データの即時処理と迅速でスマートな意思決定を可能にします。

エッジコンピューティングによって、デバイスがある場所の近くにデータが保管されるようになり、AI アルゴリズムはインターネット接続の有無によらず、デバイス上で作成されたデータを処理します。これにより、データはミリ秒単位で処理され、リアルタイムでフィードバックが提供されます。エッジ AI では、応答がほぼ瞬時に提供されます。機密データがエッジ外に送られることがなければ、安全性が強化されることにもなります。

過負荷のクラウドデータセンターにデータを送らなくて済むので、センサーや IoT デバイスなどのエッジデバイスが重要なテクノロジーとなりつつあります。

エッジ AI は、コネクテッド・テクノロジーから生成されたデータがバックエンドのクラウドシステムに転送される従来の AI アプリケーション・フレームワークとは違いがあります。 AI モデルはバックエンドで実行されるのではなく、ネットワークエッジ上で動作するコネクテッドデバイス内部のプロセッサー上に構成されます。これにより、エッジ上にインテリジェンスの層が追加され、エッジデバイスはメトリクスと分析を収集するほかに、それに対応して動作できます。これはエッジデバイス内に統合された機械学習 (ML) モデルがあり、エッジ上で真の AI が実現されるからです。

人工知能の目標に変わりはなく、通常は人間が人間による監督なしで実行する作業を実行し、機能する、スマートなマシンを構築することです。ただし、エッジ AI は、デバイスが使用されている場所の内部やその付近で、ローカルに機能して意思決定を行います。

エッジコンピューティングと人工知能を組み合わせると、大きなメリットが生まれます。エッジ AI により、センサーと IoT デバイスが存在する場所であるエッジに HPC (高性能計算) 機能がもたらされます。システム間の接続性や統合を必要としないので、ユーザーはデバイス上でデータをリアルタイムで処理できます。他の物理的な場所と通信せずに、データを集約してユーザーに提供することで時間を節約できます。

エッジ AI には次のようなメリットがあります。 

  • 消費電力の低下:データ処理をローカルレベルで実行して、クラウドデータセンターよりも電力要件がはるかに低いエッジで AI を実行することで、エネルギーコストを削減します。
  • 帯域幅の削減:データフローでの帯域幅を削減し、クラウドに送信するのではなく、より多くのデータをローカルに処理、分析、保管して、コストを最小化します。
  • プライバシー:エッジ AI 運用からエッジデバイス上でローカルに処理されたデータについて不正使用や悪用のリスクを低下させます。
  • セキュリティ:データをエッジネットワークで処理および保管したり、冗長で無関係かつ不要なデータを除外したりして、重要なデータ転送を優先します。
  • スケーラビリティ:クラウドベースのプラットフォームと相手先ブランド製造 (OEM) 装置のネイティブなエッジ機能で、システムを容易に拡張します。 
  • 遅延の低減:クラウド・プラットフォームから一部の負荷を取り除き、ローカルに分析して、クラウドベース・プラットフォームを分析などの他のタスクから解放します。

Red Hat は、オープンソース・コミュニティに参加し、コンテナおよび Kubernetes テクノロジーに大きく貢献してきました。Red Hat® OpenShift® にはテスト済みの信頼できるサービスがまとめられており、アプリケーションの開発、モダナイズ、デプロイ、実行、管理の手間を軽減します。 

Red Hat OpenShift には、データセンター、ハイブリッドクラウド、エッジ全体で一貫した方法で機械学習の運用 (MLOps) を可能にする主要な機能が含まれています。Red Hat OpenShift 上で AI/ML を実行して、AI/ML ワークフローと AI を活用したインテリジェント・アプリケーションの提供を迅速化できます。

Red Hat OpenShift AI は、AI に重点を置いたポートフォーリオとして、AI/ML の実験およびモデルのライフサイクル全体で利用できるツールを提供しています。IT 運用リーダー向けのオープンソース・テクノロジーに基づく一貫したスケーラブルな基盤であり、専門のパートナーエコシステムをデータサイエンティストや開発者が利用して、AI におけるイノベーションの機会を捉えられるようにします。

関連資料

記事

生成 AI とは

生成 AI は、大規模なデータセットで訓練されたディープラーニングモデルを使用して新しいコンテンツを作成します。

記事

機械学習とは

機械学習は、明示的にプログラムしなくても、パターンを見つけ、予測し、経験から学習するようにコンピュータをトレーニングする手法です。

記事

基盤モデルとは

基盤モデルは、さまざまなタスクを実行するように訓練された機械学習 (ML) モデルの一種です。 

AI/ML についてさらに詳しく

製品

新規

エンタープライズアプリケーション向けの Granite 大規模言語モデル (LLM) ファミリーをシームレスに開発し、テストし、実行するための基盤モデルプラットフォームです。

AI に重点を置いたポートフォリオであり、Red Hat OpenShift 上で AI/ML 実験やモデルをトレーニング、チューニング、提供、監視、管理するためのツールを提供します。

統合されたテスト済みのサービス一式を備えたエンタープライズ・アプリケーション・プラットフォームであり、ユーザーの選ぶインフラストラクチャを使ってアプリケーションを市場に投入するために活用できます。 

Red Hat Ansible Lightspeed with IBM watsonx Code Assistant は、Ansible の自動化作成者、運用担当者、および開発者によって、彼ら自身のために設計された生成 AI サービスです。 

関連資料

e ブック

本番利用に適した AI/ML 環境構築のための最重要事項

アナリスト資料

MLOps 向け Red Hat ハイブリッドクラウド・プラットフォームの Total Economic Impact™

Web セミナー

オープンソースと Kubernetes で AI を最大限に活用する