プロジェクトを本番環境に展開
デプロイヤーは、DataikuプロジェクトとAPIデプロイのバージョンについて、それぞれのライフサイクル全体をオペレーターが管理するための中心的な場所です。
バッチとリアルタイムの両方のスコアリングのためのコード環境とインフラの依存関係を管理できます。更新のための堅牢なアプローチとして、開発、テスト、および本番環境に、バンドルとAPIサービスをデプロイします。
信頼性の高いバッチオペレーション
Dataikuオートメーションノードは、スケジュールやトリガーに基づいて、データの更新、パイプラインの更新、モデルの監視や再トレーニングなど、日々の本番運用タスクのシナリオを実行する本番専用サーバーです。
これらの専用実行サーバーにより、複数のAIプロジェクトが信頼性の高い分離された本番環境でスムーズに実行されます。
APIサービスを使いリアルタイムで結果を出す
Dataiku APIノードは、変化するニーズに合わせてクラウドリソースを動的に拡張可能な、弾力性と可用性の高いインフラストラクチャーです。APIノードを使用し、オンデマンドで答えを提供することができます。
わずか数クリックで、リアルタイムのモデル推論、Python関数、SQLクエリ、データセット検索用のREST APIエンドポイントを生成でき、AIを活用したより下流のアプリケーションやプロセスへと繋げることができます。
監視およびドリフト検出
AIプロジェクトが本番稼働すると、Dataikuはパイプラインを監視し、すべてのプロセスが計画通りに実行されることを確認し、問題があればオペレーターに警告を発します。
モデル評価ストアは、稼働中のモデルが長期にわたって高品質の結果を提供し続けることを保証するために、パフォーマンスメトリクスをキャプチャーして可視化します。モデルが劣化した場合、内蔵のドリフト分析により、オペレーターは潜在的なデータ、パフォーマンス、または予測のドリフトを検出、調査し、次のステップを通知することができます。
モデルの再トレーニングと比較
本番稼働のモデルは、より新しいデータや状況の変化に基づいて定期的に更新する必要があります。チームは、手動でモデルをリファクタリングするか、スケジュールや重要なデータやパフォーマンスのドリフトなどの特定のトリガーに基づいて、自動再トレーニングを設定することができます。
Dataikuの包括的なモデル比較により、データサイエンティストとMLオペレーターは、候補モデルのチャンピオン/チャレンジャー分析を行い、本番に配備する最適なモデルについて情報に基づいた決定を行うことができます。
DevOpsのためのAPIを使ったCI/CD
堅牢なAPIにより、ITおよびMLオペレーターは、外部のオーケストレーションシステムからDataikuの操作をプログラムにより実行し、既存のデータワークフローにMLOpsタスクを組み入れることができます。Dataikuは、Jenkins、GitLabCI、Travis CI、Azure Pipelinesなど、DevOpsチームが既に使用しているツールと統合できます。
モデルのストレステストと自動ドキュメンテーション
現実のデータ品質問題をシミュレートする一連のストレステストにより、MLオペレーターは、展開前に悪条件下でのモデルの堅牢性と動作を評価し、リスクを低減します。
モデルやパイプラインに関するカスタマイズ可能なドキュメントが自動的に生成されるため、チームは再現性やコンプライアンスを目的とした重要なプロジェクトコンテキストを保持できると同時に、手作業によるドキュメント作成の負担を軽減することができます。