データ収集: 人工知能構築の基礎。
戦略の転換期には、新しいテクノロジーを受け入れるか拒否するかを決断しなければならない局面が訪れます。この決断は一見簡単に思えるかもしれませんが、実際にははるかに複雑になる可能性があります。革命は必ずしも一夜にして起こるわけではありません。何年もかけて展開されることもあり、その進歩のほとんどは、画期的な進歩によって誰もが目にするようになるまで、隠されたままです。
1986年、カーネギーメロン大学コンピュータサイエンス学部は、人工知能の可能性を実証するNavlabプロジェクトを開始しました。彼らは、シボレーのパネルバンの自動運転を可能にするシステムを開発しました。これは、現在多くのアプリケーションで広く使用されているコンピュータビジョンと機械学習アルゴリズムの開発初期段階でした。
開発当時は画期的なものとみなされていましたが、日常生活に浸透するにはまだ至っていませんでした。しかし、現代社会では、自動運転車という言葉を耳にし、時には目にすることさえ珍しくありません。様々な企業が開発を進め、企業向けに販売しており、近い将来、この技術を一般向けにも販売することを目指しています。
自動運転は、他の多くのAIアプリケーションと同様に、非常に大規模なデータセットをリアルタイムで処理できるアルゴリズムとプロセッサを必要とします。例えば、OpenAIのChatGPT、MicrosoftのCopilot、あるいはMeta LLM Llama 3を使用するその他のアプリケーションで使用されているような大規模言語モデル(LLM)は、人間が書いた文章を構成するパターンを認識するために大規模なデータセットを必要とします。したがって、機械学習の核心においては、これらのシステムを扱うには、データと、データを迅速に処理する能力の両方が不可欠であることがわかります。
工場で1時間あたり1,000ユニットの生産が必要なシナリオを考えてみましょう。フル稼働で稼働している工場で、機械の1台が故障すると、1時間あたり1,000ユニットの目標を達成できなくなります。このような状況では、影響を受ける機械のメンテナンスサイクルを迅速化することが重要な優先事項の一つです。このようなラインダウンを防ぐには、メンテナンス計画を策定し、ベストプラクティスに従うのであれば、状態基準保全(CBM)手法を導入するとよいでしょう。これは、温度や振動など、機械のさまざまな変数をセンサーで測定する手法です。特定の制限を超えるとアラートが発せられ、機器が故障する前に特定の部品を交換する必要があることがわかります。
予防保守には、ミッションクリティカルな変数を収集し、コンピュータに保存するためのデータ収集システムが必要です。収集されたデータポイントを指定されたしきい値と比較することで、メンテナンスが必要な時期を判断できます。ここまでは比較的簡単に思えます。しかし、交換部品が組み込まれると、機械は経年劣化により動作が変化する可能性があり、誤検知や予期せぬ運用上の問題につながる可能性があります。ここで初めて、最終製品の品質管理データを含む膨大な量のデータが存在することに気付くのです。この段階で、機械学習アルゴリズムを実装し、これらのデータを効果的に分析・相互参照することで、システムが自律的にメンテナンスに関するより適切な判断を下せるようになります。
学習モデルの最大のメリットは、反復ごとにより多くのデータを取得し、時間の経過とともに機械学習アルゴリズム全体が改善されるため、スケーラブルであることです。しかし、それだけではありません。進化するアルゴリズムが完成したら、自律的に意思決定を行い、時間の経過とともに改善していくシステムに実装できるようになります。
さまざまなアーキテクチャオプションを検討する場合、1つのアプローチとして、次のようなデータロガーを使用する方法があります。 コンプロシス Contecのファミリーはデータを収集し、それを送信します サーバーへのデータ 処理のために。このアプローチの利点は、負荷の高いデータ処理を中央サーバーにオフロードできることです。しかし、大きな欠点は、データ送信時に大量のネットワークトラフィックが発生する可能性があることです。処理規模が大きくなると、帯域幅の制限により問題が発生し、運用コストが増加する可能性があります。さらに、サーバーとのネットワーク遅延によって、重要なタスクへのリアルタイム対応が阻害される可能性があります。
一方、 PCベースのDAQシステム ContecのDAQシステム。このシステムでは、機械学習に基づく推論などの高負荷なアルゴリズムをローカルで実行しながら、同時に同じシステム上で直接データを取得できます。この機能により、エッジでの処理が可能になり、サーバーを中心としたインフラを構築することなく、必要に応じて拡張できます。このPCベースDAQの興味深い点は、Conprosys製品などのリモートデータロガーを組み込んでハイブリッドプラットフォームアーキテクチャを構築できることです。
人工知能や機械学習アルゴリズムは、その有用性を発揮するために常にデータを必要とします。だからこそ、データ取得への理解を深める動機が重要であり、この革命の中で成功を収めるには、コンテックのような適切なパートナーを見つけることが不可欠です。選択肢を理解し、データ取得のベストプラクティスを適用することが、人工知能を最大限に活用するための基礎となります。