ラトナ、CUDA-GPU×CuPy のインスタンスをエッジKubernetesコンテナで安定稼働
2020/05/27 13:30
ラトナは、Kubernetesでフルクラスター化されたエッジインフラ環境において、CUDA-GPU×CuPy のインスタンスを安定的に稼働させたと発表、同環境上で同社のAI/IoTプラットフォーム「AION」マイクロサービスの稼働を確認した。
同社では、クラウドから遮断されたクローズドなネットワーク環境で、Kubernetesでフルクラスター化されたNVIDIA Jetsonなどで構成されるインフラ環境を準備。そこで、CUDA-GPU×CuPyのインスタンスを、エッジKubernetes上のクラスタ上で安定的に稼働させるコンテナ稼働環境を整備した。さらに、同環境上で、同社のAI/IoTプラットフォーム「AION」のマイクロサービスランタイムコンテナ環境が安定稼働することを確認した。
今回開発したエッジAI、エッジコンテナオーケストレーション環境は、従来CPUに担わせていたデータ分析/統計解析計算をGPUに実行させ、GPUのコンテナランタイム環境を、エッジIoTデータと連携してリアルタイム化、安定化できるなどのメリットがある。それにより、エッジにおいて従来より大容量のIoTデータや画像データを、高速かつ安定的に処理できるとしている。
今回開発した技術は、製造ロボットやPLCから取得した大量のデータをリアルタイムで統計解析してその場で結果を得たり、製造ラインのビジョンシステムにおいて、より多くの画像データ/IoTデータを統合的にAI処理/統計処理することでその場で結果を得るといった活用を想定している。