Professional-Data-Engineer 試験問題 322

BigQueryのデータ変換ソリューションを設計しています。開発者はSOLに精通しており、ELT開発手法の活用を希望しています。さらに、直感的なコーディング環境とSQLをコードとして管理する能力も必要です。開発者がこれらのパイプラインを構築するためのソリューションを特定する必要があります。どうすればよいでしょうか?
  • Professional-Data-Engineer 試験問題 323

    Cloud Machine Learning Engine を使用して自分のパソコンで TensorFlow トレーニング ジョブを実行するには、コマンドは何で始まりますか?
  • Professional-Data-Engineer 試験問題 324

    MJTelcoのケーススタディ
    会社概要
    MJTelco は、世界中で急速に成長しているがサービスが行き届いていない市場にネットワークを構築することを計画しているスタートアップ企業です。
    同社は革新的な光通信ハードウェアに関する特許を保有しており、これらの特許に基づき、安価なハードウェアで信頼性の高い高速バックボーンリンクを多数構築することが可能です。
    会社概要
    経験豊富な通信業界の幹部によって設立されたMJTelcoは、宇宙における通信の課題を克服するために開発された技術を活用しています。事業運営の基盤として、リアルタイム分析を可能にし、機械学習を組み込んだ分散型データインフラストラクチャを構築することで、トポロジーを継続的に最適化する必要があります。ハードウェアは安価であるため、ネットワークを過剰に展開することで、地域情勢の変化が位置情報の可用性とコストに及ぼす影響を考慮に入れる計画です。
    同社の管理・運用チームは世界中に拠点を置き、システム内でデータの利用者と提供者の間に多対多の関係を構築しています。慎重に検討した結果、パブリッククラウドが自社のニーズを満たす最適な環境であると判断しました。
    ソリューションコンセプト
    MJTelcoは、自社のラボで概念実証(PoC)プロジェクトを成功裏に実行しています。彼らには主に2つのニーズがあります。
    * インストール数が 50,000 を超えると、生成されるデータ フローが大幅に増加するため、PoC を拡張して強化します。
    * 機械学習サイクルを改良して、トポロジ定義を制御するために使用する動的モデルを検証および改善します。
    MJTelco は、実験の実行、新機能の導入、実稼働顧客へのサービス提供のニーズを満たすために、開発/テスト、ステージング、実稼働の 3 つの個別の運用環境も使用します。
    ビジネス要件
    * 予測不可能な分散型通信ユーザー コミュニティで必要なときに必要な場所でリソースをインスタンス化し、最小限のコストで実稼働環境を拡張します。
    * 最先端の機械学習と分析を保護するために、独自のデータのセキュリティを確保します。
    * 分散した研究員から分析のためのデータへの信頼性が高くタイムリーなアクセスを提供する
    * 顧客に影響を与えることなく、機械学習モデルの迅速な反復をサポートする分離された環境を維持します。
    技術要件
    テレメトリデータの安全かつ効率的な転送と保管を確保する
    インスタンスを迅速に拡張して、それぞれ複数のフローを持つ 10,000 ~ 100,000 のデータ プロバイダーをサポートします。
    1 日あたり約 1 億件のレコードを保存し、最大 2 年間のデータを追跡するデータ テーブルに対する分析とプレゼンテーションを可能にし、テレメトリ フローと実稼働学習サイクルの両方でデータ パイプラインの問題を認識することに重点を置いた監視インフラストラクチャの迅速な反復をサポートします。
    CEO声明
    当社のビジネスモデルは、特許、分析、そして動的機械学習に依存しています。低価格のハードウェアは高い信頼性を実現するよう設計されており、コスト面での優位性をもたらしています。信頼性と容量に関するコミットメントを満たすためには、大規模な分散データパイプラインを迅速に安定化させる必要があります。
    CTO声明
    パブリッククラウドサービスは宣伝どおりに機能する必要があります。拡張性があり、データの安全性を維持できるリソースが必要です。
    また、データ サイエンティストがモデルを慎重に研究し、迅速に適応できる環境も必要です。
    データ処理には自動化が不可欠であるため、反復作業中に開発環境とテスト環境も機能させる必要があります。
    CFO声明
    このプロジェクトは規模が大きすぎるため、データと分析に必要なハードウェアとソフトウェアを維持することはできません。また、膨大なデータフィードを監視する運用チームを編成する余裕もないため、自動化とインフラストラクチャに頼ることになります。Google Cloud の機械学習により、当社の定量分析研究者はデータパイプラインの問題ではなく、より価値の高い課題に取り組むことができます。
    次の要件を満たす運用チーム向けの視覚化を構成する必要があります。
    * テレメトリには、過去 6 週間の 50,000 のインストールすべてからのデータを含める必要があります (1 分ごとにサンプリング)
    * レポートはライブデータから 3 時間以上遅延してはなりません。
    * 実用的なレポートには、最適ではないリンクのみが表示されます。
    * 最適ではないリンクのほとんどは、一番上に並べる必要があります。
    * 最適ではないリンクは、地域別にグループ化してフィルタリングできます。
    * レポートをロードするためのユーザー応答時間は 5 秒未満である必要があります。
    過去6週間分のデータを保存するデータソースを作成し、複数の日付範囲、異なる地理的地域、そして異なる設置タイプを視覚的に表示できるビジュアライゼーションを作成します。ビジュアライゼーションに変更を加えることなく、常に最新のデータを表示します。毎月新しいビジュアライゼーションを作成・更新する手間は省きたいと考えています。どうすればよいでしょうか?
  • Professional-Data-Engineer 試験問題 325

    特定のテーブルのBigQueryデータを1日に複数回確認する必要があります。クエリ対象のテーブルは数ペタバイト規模ですが、データをフィルタリングし、下流のユーザーにシンプルな集計結果を提供したいと考えています。クエリの実行速度を向上させ、最新のインサイトをより早く得たいと考えています。どうすればよいでしょうか?
  • Professional-Data-Engineer 試験問題 326

    Streaming Engine と水平自動スケーリングを有効にして、Dataflow ストリーミング パイプラインを実行しています。
    ワーカーの最大数を1,000に設定しました。パイプラインの入力は、Cloud Storageからの通知を含むPub/Subメッセージです。パイプライン変換の1つはCSVファイルを読み取り、CSV行ごとに要素を出力します。ジョブのパフォーマンスは低く、パイプラインは10個のワーカーしか使用しておらず、オートスケーラーが追加のワーカーを起動していないことがわかります。パフォーマンスを改善するにはどうすればよいでしょうか?