Professional-Data-Engineer 試験問題 91

ニューラル ネットワークがトレーニング データセットから学習するときに調整される数値はどれですか (2 つの回答を選択)。
  • Professional-Data-Engineer 試験問題 92

    ケーススタディ: 3、
    MJTelcoのケーススタディ
    会社概要
    MJTelcoは、世界中で急成長を遂げているものの、サービスが行き届いていない市場にネットワークを構築することを計画しているスタートアップ企業です。同社は革新的な光通信ハードウェアに関する特許を保有しており、これらの特許に基づき、安価なハードウェアで信頼性の高い高速バックボーンリンクを多数構築することが可能です。
    会社概要
    経験豊富な通信業界の幹部によって設立されたMJTelcoは、宇宙における通信の課題を克服するために開発された技術を活用しています。事業運営の基盤として、リアルタイム分析を促進し、機械学習を組み込んでトポロジーを継続的に最適化する分散型データインフラストラクチャの構築が求められています。ハードウェアが安価であることから、ネットワークをオーバーデプロイすることで、地域情勢の変化が拠点の可用性とコストに及ぼす影響を考慮に入れる計画です。管理・運用チームは世界中に拠点を構え、システム内のデータ利用者とデータ提供者の間に多対多の関係を構築しています。慎重に検討した結果、パブリッククラウドが自社のニーズに最適な環境であると判断しました。
    ソリューションコンセプト
    MJTelcoは、自社のラボで概念実証(PoC)プロジェクトを成功裏に実行しています。彼らには主に2つのニーズがあります。
    インストール数が 50,000 を超えると、生成されるデータ フローが大幅に増加するため、PoC を拡張して強化します。
    機械学習サイクルを改良して、トポロジ定義を制御するために使用する動的モデルを検証および改善します。
    MJTelco は、開発/テスト、ステージング、実稼働という 3 つの個別の運用環境も使用します。
    実験の実行、新機能の導入、本番環境の顧客へのサービス提供のニーズを満たすためです。
    ビジネス要件
    予測不可能な分散型通信ユーザーコミュニティにおいて、最小限のコストで本番環境をスケールアップし、必要な時に必要な場所でリソースをインスタンス化します。最先端の機械学習と分析を保護するために、独自データのセキュリティを確保します。
    分散した研究員からの分析用データへの信頼性が高くタイムリーなアクセスを提供し、顧客に影響を与えることなく機械学習モデルの迅速な反復をサポートする分離された環境を維持します。
    技術要件
    テレメトリ データの安全で効率的な転送と保存を確保し、インスタンスを迅速に拡張して、それぞれ複数のフローを持つ 10,000 ~ 100,000 のデータ プロバイダーをサポートします。
    約2年間分のデータを追跡するデータテーブルに対する分析とプレゼンテーションを可能にします。
    1日あたり1億件のレコード
    テレメトリ フローと本番学習サイクルの両方でのデータ パイプラインの問題を認識することに重点を置いた監視インフラストラクチャの迅速な反復をサポートします。
    CEO声明
    当社のビジネスモデルは、特許、分析、そして動的機械学習に依存しています。低価格のハードウェアは高い信頼性を実現するよう設計されており、コスト面での優位性をもたらしています。信頼性と容量に関するコミットメントを満たすためには、大規模な分散データパイプラインを迅速に安定化させる必要があります。
    CTO声明
    当社のパブリッククラウドサービスは、宣伝どおりに機能する必要があります。拡張性とデータの安全性を確保できるリソースが必要です。また、データサイエンティストがモデルを綿密に研究し、迅速に適応できる環境も必要です。データ処理は自動化に依存しているため、開発環境とテスト環境も、反復作業に合わせて適切に機能する必要があります。
    CFO声明
    プロジェクトが大きすぎるため、データと分析に必要なハードウェアとソフトウェアを維持することはできません。
    また、膨大なデータフィードを監視する運用チームを編成する余裕はないため、自動化とインフラストラクチャに頼ることになります。Google Cloud の機械学習により、定量分析の研究者はデータパイプラインの問題ではなく、より価値の高い問題に取り組むことができます。
    Google Cloud Dataflow パイプラインは、50,000 のインストールからデータを受信する準備が整いました。Cloud Dataflow のコンピューティング能力を必要に応じてスケールアップできるようにしたいと考えています。どの Cloud Dataflow パイプライン構成を更新する必要がありますか?
  • Professional-Data-Engineer 試験問題 93

    地震データを分析するシステムを設計しています。抽出、変換、ロード(ETL)プロセスは、Apache Hadoop クラスター上で一連の MapReduce ジョブとして実行されます。ETL プロセスでは、一部のステップの計算コストが高いため、データセットの処理に数日かかります。その後、センサーのキャリブレーションステップが省略されていることが判明しました。将来的にセンサーのキャリブレーションを体系的に実行するために、ETL プロセスをどのように変更すればよいでしょうか。
  • Professional-Data-Engineer 試験問題 94

    スケーラブルな方法でデータを収集する必要がある新しいアプリケーションを構築しています。アプリケーションからは一日中継続的にデータが届き、年末までに1日あたり約150GBのJSONデータが生成されると予想しています。要件は次のとおりです。
    * 生産者と消費者の分離
    * 取り込んだ生のデータを無期限に保存するための、スペースとコスト効率に優れたストレージ
    * ほぼリアルタイムのSQLクエリ
    * 少なくとも 2 年間の履歴データを保持し、SQL でクエリを実行します。これらの要件を満たすにはどのパイプラインを使用する必要がありますか?
  • Professional-Data-Engineer 試験問題 95

    ワイド&ディープ ラーニング モデルに関する次の記述のうち正しいものはどれですか? (回答を 2 つ選択してください。)