GitHubじゃ!Pythonじゃ!

GitHubからPython関係の優良リポジトリを探したかったのじゃー、でも英語は出来ないから日本語で読むのじゃー、英語社会世知辛いのじゃー

donnemartin

system-design-primer – 大規模システムの設計方法を学びます。 システム設計のインタビューの準備。 アンキーのフラッシュカードが含まれて..

投稿日:

大規模システムの設計方法を学びます。 システム設計のインタビューの準備。 アンキーのフラッシュカードが含まれています。

英語日本語簡体中文繁體中文 | ブラジルのポルトガル語ギリシャイタリア韓国ペルシャポーランドロシアスペイン語トルコベトナム語 | 翻訳を追加

システム設計入門

動機

大規模システムの設計方法を学びます。

システム設計のインタビューの準備。

大規模システムの設計方法を学ぶ

スケーラブルなシステムを設計する方法を学ぶことは、より良いエンジニアになるのに役立ちます。

システム設計は幅広い話題です。 システムデザインの原則には、Web全体に膨大な量のリソースが散在しています

このレポは、システムを大規模に構築する方法を学習するのに役立つ、 組織化されたリソースの集合です。

オープンソースコミュニティから学ぶ

これは絶え間なく更新されたオープンソースプロジェクトの初期草案です。

貢献は歓迎です!

システム設計のインタビューの準備

インタビューのコーディングに加えて、システム設計は、多くのハイテク企業の技術面接プロセスの 必須コンポーネントです。

一般的なシステム設計のインタビューの質問練習 、結果をサンプルソリューション(例 :ディスカッション、コード、図)と比較します。

インタビュー準備の追加トピック:

アンキーフラッシュカード

提供されているAnkiフラッシュカードデッキは間隔を空けた繰り返しを使用して、主要なシステム設計の概念を保持するのに役立ちます。

外出先での使用に最適です。

コーディングリソース:インタラクティブコーディングの課題

コーディングインタビューの準備に役立つリソースをお探しですか?

追加のAnkiデッキが含まれている姉妹レポインタラクティブコーディングチャレンジをチェックしてください:

貢献する

コミュニティから学ぶ。

お気軽にプルリクエストを送信してください。

  • エラーを直す
  • セクションを改善する
  • 新しいセクションを追加する
  • 翻訳

研磨が必要なコンテンツは開発中です。

寄付ガイドラインを確認してください。

システム設計のトピックの索引

賛否両論を含むさまざまなシステム設計のトピックの概要。 すべてがトレードオフです。

各セクションには、より詳細なリソースへのリンクが含まれています。

学習ガイド

あなたのインタビューのタイムライン(短、中、長)に基づいて検討するためのトピック。

Q:インタビューでは、ここですべてを知る必要がありますか?

A:いいえ、面接の準備にはここですべてを知る必要はありません

あなたがインタビューで尋ねられることは、次のような変数に依存します:

  • どれくらいの経験があるか
  • あなたの技術的背景は何ですか?
  • あなたがインタビューしているポジション
  • あなたがインタビューしている企業

経験豊富な候補者は、一般的にシステム設計の詳細を知ることが期待されます。 建築家やチームリーダーは、個々の貢献者以上のものを知っていることが予想されるかもしれません。 トップテック企業は、1回以上のデザインインタビューラウンドを持つ可能性が高い。

幅広く開始し、いくつかの領域でより深く進んでください。 それは、さまざまな重要なシステム設計のトピックについて少し知っておくのに役立ちます。 あなたのタイムライン、経験、あなたがインタビューしているポジション、あなたがインタビューしている会社に基づいて、以下のガイドを調整してください。

  • 短いタイムライン – システム設計の話題を幅広く狙っています。 いくつかの面接の質問を解決することによって練習する。
  • 中規模のタイムライン – システム設計の話題を幅広くある程度深く掘り下げてください。 多くの面接の質問を解決することによって練習してください。
  • ロングタイムライン – システム設計のトピックを幅広くより深く 理解してください ほとんどのインタビューの質問を解決することによって練習してください。
ショート 長いです
システム設計のトピックを読んで、 システムの仕組みを幅広く理解する 👍 👍 👍
あなたがインタビューしている企業のための会社のエンジニアリングブログのいくつかの記事を読んでください 👍 👍 👍
いくつかの実世界のアーキテクチャを読む 👍 👍 👍
システムデザインの面接の質問にアプローチする方法を確認する 👍 👍 👍
解決策によるシステム設計のインタビューの質問を通して作業 一部 たくさんの 最も
解決策を用いたオブジェクト指向の設計面接の質問を通して作業する 一部 たくさんの 最も
システムデザインの追加インタビューに関する質問 一部 たくさんの 最も

システム設計の面接の質問にアプローチする方法

システム設計のインタビューの質問に取り組む方法。

システム設計のインタビューは自由な会話です。 あなたはそれを導くことが期待されます。

以下の手順を使用してディスカッションをガイドすることができます。 このプロセスを堅固にするために、以下の手順を使用して、 ソリューションのセクションでシステム設計の面接の質問を処理してください。

ステップ1:ユースケース、制約、および仮定の概要

要件を収集し、問題の範囲を特定します。 ユースケースと制約を明確にするために質問してください。 仮定を議論する。

  • 誰がそれを使用する予定ですか?
  • 彼らはどのようにそれを使うつもりですか?
  • 何人のユーザーがいますか?
  • システムは何をしていますか?
  • システムの入力と出力は何ですか?
  • どのくらいのデータを扱うことが期待されますか?
  • 1秒あたりのリクエスト数はどれくらいですか?
  • 予想される読み書きの比率はどのくらいですか?

ステップ2:ハイレベルデザインを作成する

すべての重要なコンポーネントでハイレベルのデザインを概説します。

  • 主要なコンポーネントと接続をスケッチする
  • アイデアを正当化する

ステップ3:コアコンポーネントを設計する

各コアコンポーネントの詳細を参照してください。 たとえば、URL短縮サービスの設計を依頼された場合は、次のように話し合ってください。

  • 完全なURLのハッシュを生成して格納する
    • MD5およびBase62
    • ハッシュ衝突
    • SQLまたはNoSQL
    • データベーススキーマ
  • ハッシュされたURLを完全なURLに翻訳する
    • データベースルックアップ
  • APIとオブジェクト指向設計

ステップ4:デザインをスケールする

制約がある場合、ボトルネックを特定して対処する。 たとえば、スケーラビリティの問題に対処するには、次のものが必要ですか?

  • ロードバランサ
  • 水平スケーリング
  • キャッシング
  • データベースシャーディング

潜在的な解決策とトレードオフについて話し合う。 すべてがトレードオフです。 スケーラブルなシステム設計の原則を使用してボトルネックを解決します。

エンベロープの計算

あなたは手でいくつかの見積もりをするよう求められるかもしれません。 以下のリソースについては、 付録を参照してください

出典と追加の読書

何を期待するかについてのより良い考えを得るために、以下のリンクをチェックしてください:

ソリューションによるシステム設計の面談の質問

一般的なシステム設計のインタビューの質問とサンプルのディスカッション、コード、ダイアグラム

ソリューションは、 solutions/フォルダ内のコンテンツにリンクされています。

質問
デザインPastebin.com(またはBit.ly) 溶液
Twitterのタイムライン(またはFacebookフィード)をデザインする
デザインTwitter検索(またはFacebook検索)
溶液
Webクローラーを設計する 溶液
デザインMint.com 溶液
ソーシャルネットワークのデータ構造を設計する 溶液
検索エンジンのキーバリューストアを設計する 溶液
カテゴリ機能別にAmazonの売上ランキングをデザインする 溶液
AWS上で何百万人ものユーザーに対応できるシステムを設計する 溶液
システム設計の質問を追加する 寄稿

デザインPastebin.com(またはBit.ly)

運動と解決策を見る

Twitterのタイムラインと検索を設計する(またはFacebookのフィードと検索)

運動と解決策を見る

Webクローラーを設計する

運動と解決策を見る

デザインMint.com

運動と解決策を見る

ソーシャルネットワークのデータ構造を設計する

運動と解決策を見る

検索エンジンのキーバリューストアを設計する

運動と解決策を見る

カテゴリ機能別にAmazonの売上ランキングをデザインする

運動と解決策を見る

AWS上で何百万人ものユーザーに対応できるシステムを設計する

運動と解決策を見る

解決策によるオブジェクト指向設計の面談の質問

共通のオブジェクト指向設計のインタビューの質問には、サンプルのディスカッション、コード、図があります。

ソリューションは、 solutions/フォルダ内のコンテンツにリンクされています。

注:このセクションは開発中です

質問
ハッシュマップを設計する 溶液
最も最近使用されていないキャッシュを設計する 溶液
コールセンターの設計 溶液
カードのデッキの設計 溶液
駐車場を設計する 溶液
チャットサーバーの設計 溶液
円形アレイを設計する 寄稿
オブジェクト指向設計の質問を追加する 寄稿

システム設計のトピック:ここから開始

システム設計の初心者ですか?

まず、共通の原則を基本的に理解し、その内容、使用方法、賛否両論について学ぶ必要があります。

ステップ1:スケーラビリティのビデオ講義を確認する

ハーバードでのスケーラビリティ講演

  • トピックス
    • 垂直スケーリング
    • 水平スケーリング
    • キャッシング
    • ロードバランシング
    • データベースの複製
    • データベース・パーティショニング

手順2:スケーラビリティの記事を確認する

スケーラビリティ

次のステップ

次に、ハイレベルのトレードオフを見てみましょう。

  • パフォーマンススケーラビリティ
  • 遅延スループット
  • 可用性整合性

すべてがトレードオフであることに留意してください。

次に、DNS、CDN、ロードバランサなどのより具体的なトピックに目を通します。

パフォーマンスとスケーラビリティ

追加されたリソースに比例してパフォーマンス向上した場合、 スケーラビリティ向上します。 一般に、パフォーマンスの向上とは、より多くの作業単位を処理することを意味しますが、データセットの増加など、より大きな作業単位を処理することもできます。 1

パフォーマンスとスケーラビリティを比較する別の方法:

  • パフォーマンスに問題がある場合は、1人のユーザーのシステムが遅くなります。
  • スケーラビリティに問題がある場合、システムは1人のユーザーでは高速ですが、負荷が高い場合は遅くなります。

出典と追加の読書

遅延とスループット

待ち時間とは、何らかのアクションを実行したり、何らかの結果を生み出す時間です。

スループットは、単位時間あたりのそのようなアクションまたは結果の数です。

一般に、 受け入れ可能な待ち時間最大のスループットを目指すべきです。

出典と追加の読書

可用性と整合性

CAP定理


出典:CAP定理を再訪

分散型コンピュータシステムでは、次の保証のうちの2つしかサポートできません。

  • 一貫性 – すべての読み取りが最新の書き込みまたはエラーを受け取ります
  • 可用性 – 最新の情報が含まれているとは限りませんが、すべての要求は応答を受け取ります
  • Partition Tolerance – ネットワーク障害による任意のパーティション化にもかかわらず、システムは引き続き動作します。

ネットワークは信頼性がないため、パーティションの許容差をサポートする必要があります。 一貫性と可用性の間でソフトウェアのトレードオフを行う必要があります。

CP – 一貫性とパーティションの許容差

パーティション化されたノードからの応答を待つと、タイムアウト・エラーが発生する可能性があります。 ビジネスニーズにアトミックな読み取りと書き込みが必要な場合は、CPを選択することをお勧めします。

AP – 可用性とパーティションの許容差

レスポンスは、ノードで利用可能な最新のバージョンのデータを返します。これは最新ではない可能性があります。 パーティションが解決されると、書き込みに伝播するまでに時間がかかることがあります。

業務上の必要性が最終的な一貫性を可能にしている場合や、システムが外部エラーにもかかわらず動作を継続する必要がある場合は、APが適しています。

出典と追加の読書

一貫性のあるパターン

同じデータが複数コピーされている場合、クライアントのデータを一貫して表示できるように、データの同期方法に関するオプションがあります。 CAPの定理から一貫性の定義を思い出してください。 – すべての読み取りは、最新の書き込みまたはエラーを受け取ります。

弱い一貫性

書き込み後、読み込みが行われても読み込まれなくてもかまいません。 ベストエフォートアプローチが採用されています。

このアプローチは、memcachedなどのシステムで見られます。 弱い一貫性は、VoIP、ビデオチャット、リアルタイムマルチプレイヤーゲームなどのリアルタイムユースケースでうまく機能します。 たとえば、通話中で数秒間受信を停止した場合、接続を回復すると、接続が切断されたときの話が聞こえません。

最終的な一貫性

書き込み後、最終的に読み込みが行われます(通常ミリ秒以内)。 データは非同期に複製されます。

このアプローチは、DNSや電子メールなどのシステムに見られます。 最終的な一貫性は、可用性の高いシステムでうまく機能します。

強い一貫性

書き込み後、読み込みが行われます。 データは同期して複製されます。

このアプローチは、ファイルシステムとRDBMSに見られます。 強力な整合性は、トランザクションを必要とするシステムでうまく機能します。

出典と追加の読書

可用性パターン

高可用性をサポートする主なパターンには、 フェールオーバーレプリケーションの 2つがあります。

フェイルオーバー

アクティブパッシブ

アクティブ/パッシブフェールオーバーでは、待機時にアクティブサーバーとパッシブサーバー間でハートビートが送信されます。 ハートビートが中断されると、パッシブサーバーがアクティブのIPアドレスを引き継ぎ、サービスを再開します。

ダウンタイムの長さは、パッシブサーバーがすでに「ホット」スタンバイ状態で実行されているか、「コールド」スタンバイ状態から起動する必要があるかによって決まります。 アクティブなサーバだけがトラフィックを処理します。

アクティブ/パッシブフェールオーバーは、マスター/スレーブフェールオーバーとも呼ばれます。

アクティブ – アクティブ

アクティブ – アクティブでは、両方のサーバがトラフィックを管理しており、両方のサーバ間で負荷が分散しています。

サーバーが公開されている場合、DNSは両方のサーバーのパブリックIPについて知る必要があります。 サーバーが内部に面している場合、アプリケーション・ロジックは両方のサーバーについて知る必要があります。

アクティブ – アクティブフェールオーバーは、マスター – マスタフェールオーバーとも呼ばれます。

短所:フェールオーバー

  • フェールオーバーによりハードウェアが増え、複雑さが増します。
  • 新たに書き込まれたデータをパッシブに複製する前に、アクティブなシステムに障害が発生すると、データが失われる可能性があります。

複製

マスタースレーブとマスターマスター

このトピックについては、「 データベース」セクションでさらに詳しく説明します。

ドメインネームシステム


出典:DNSセキュリティプレゼンテーション

ドメインネームシステム(DNS)は、 www.example.comなどのドメイン名をIPアドレスに変換します。

DNSは上位階層にいくつかの権限のあるサーバーが階層化されています。 ルータまたはISPは、ルックアップの際にどのDNSサーバに連絡するかについての情報を提供します。 下位レベルのDNSサーバーはマッピングをキャッシュしますが、これはDNSの伝播の遅れにより失効する可能性があります。 DNSの結果は、生存時間(TTL)によって決まる特定の期間、ブラウザまたはOSによってキャッシュされることもあります。

  • NSレコード(ネームサーバー) – ドメイン/サブドメインのDNSサーバーを指定します。
  • MXレコード(メール交換) – メッセージを受け入れるためのメールサーバーを指定します。
  • レコード(アドレス) – 名前をIPアドレスにポイントします。
  • CNAME(標準) – 名前を別の名前またはCNAME (example.comからwww.example.com )またはAレコードにポイントします。

CloudFlareRoute 53などのサービスは、管理されたDNSサービスを提供します。 DNSサービスによっては、さまざまな方法でトラフィックをルーティングできます。

  • 加重ラウンドロビン
    • メンテナンス中にサーバーにトラフィックが流れないようにする
    • さまざまなクラスタサイズ間のバランス
    • A / Bテスト
  • レイテンシベース
  • ジオロケーションベース

短所:DNS

  • DNSサーバーへのアクセスにはわずかな遅延がありますが、上記のキャッシングによって緩和されます。
  • DNSサーバーの管理は複雑で、一般に政府、ISP、および大企業が管理します。
  • DNSサービスは最近、 DDoS攻撃を受けており、ユーザーはTwitterのIPアドレスを知らなくてもTwitterなどのWebサイトにアクセスすることができません。

出典と追加の読書

コンテンツ配信ネットワーク


出典:CDNを使う理由

コンテンツ配信ネットワーク(CDN)は、プロキシサーバーのグローバルに分散されたネットワークで、ユーザーに近い場所からコンテンツを配信します。 一般に、HTML / CSS / JS、写真、ビデオなどの静的ファイルはCDNから提供されますが、AmazonのCloudFrontなどのCDNでは動的コンテンツがサポートされています。 サイトのDNS解決は、どのサーバーに連絡するかをクライアントに指示します。

CDNからのコンテンツの配信は、2つの方法でパフォーマンスを大幅に向上させることができます。

  • ユーザーは、近くのデータセンターでコンテンツを受信する
  • あなたのサーバーは、CDNが満たす要求を処理する必要はありません

プッシュCDN

プッシュCDNは、サーバー上で変更が発生するたびに新しいコンテンツを受信します。 あなたは、コンテンツの提供、CDNへの直接アップロード、およびCDNを指すようにURLの書き換えに全責任を負います。 コンテンツの有効期限や更新時期を設定できます。 コンテンツは、新規または変更されたときにのみアップロードされ、トラフィックは最小限に抑えられますが、ストレージは最大限になります。

交通量の少ないサイトや頻繁に更新されないコンテンツを持つサイトでは、プッシュCDNがうまく機能します。 コンテンツは、定期的に再取得するのではなく、一度CDNに配置されます。

プルCDN

プルCDNは、最初のユーザーがコンテンツを要求したときにサーバーから新しいコンテンツを取得します。 あなたのサーバー上にコンテンツを残し、CDNを指すようにURLを書き換えます。 その結果、コンテンツがCDNにキャッシュされるまで、要求が遅くなります。

生存時間(TTL)は、コンテンツのキャッシュ時間を決定します。 プルCDNはCDN上のストレージスペースを最小限に抑えますが、ファイルが期限切れになってから実際に変更される前にプルされると、冗長トラフィックを生成する可能性があります。

トラフィックが多いサイトでは、最近要求されたコンテンツのみがCDNに残り、トラフィックがより均一に分散されるため、CDNをプルするのに適しています。

短所:CDN

  • CDNコストはトラフィックによって大きくなる可能性がありますが、CDNを使用しない場合に発生する追加コストが重くなります。
  • TTLが期限切れになる前にコンテンツが更新されると、コンテンツが失効する可能性があります。
  • CDNは、静的コンテンツのURLをCDNを指すように変更する必要があります。

出典と追加の読書

ロードバランサ


出典:スケーラブルなシステム設計パターン

ロードバランサは、着信クライアント要求をアプリケーションサーバーやデータベースなどのコンピューティングリソースに配信します。 いずれの場合も、ロードバランサはコンピューティングリソースからの応答を適切なクライアントに返します。 ロードバランサは次の場所で有効です。

  • 不健全なサーバーへの要求の阻止
  • リソースのオーバーロードを防ぐ
  • 単一障害点を排除するのに役立ちます

ロードバランサは、ハードウェア(高価)またはHAProxyなどのソフトウェアで実装できます。

その他の利点は次のとおりです。

  • SSL終了 – 受信リクエストを復号化し、サーバレスポンスを暗号化して、バックエンドサーバがこれらの潜在的に高価な操作を実行する必要がないようにする
  • セッションの永続性 – ウェブアプリケーションがセッションを追跡しない場合、Cookieを発行して特定のクライアントの要求を同じインスタンスにルーティングする

障害から守るために、複数のロードバランサをアクティブ – パッシブモードまたはアクティブ – アクティブモードで設定するのが一般的です。

ロードバランサは、次のようなさまざまなメトリックに基づいてトラフィックをルーティングできます。

レイヤ4ロードバランシング

レイヤ4ロードバランサは、 トランスポートレイヤの情報を調べて、要求の配信方法を決定します。 一般的に、これには、ヘッダー内の送信元、宛先IPアドレス、およびポートは含まれますが、パケットの内容は含まれません。 レイヤ4ロードバランサは、アップストリームサーバとの間でネットワークパケットを転送し、 ネットワークアドレス変換(NAT)を実行します。

レイヤ7ロードバランシング

レイヤ7ロードバランサはアプリケーション層を見て、要求をどのように配布するかを決定します。 これには、ヘッダー、メッセージ、およびCookieの内容が含まれます。 レイヤ7ロードバランサは、ネットワークトラフィックを終了し、メッセージを読み取り、ロードバランシングの決定を行い、次に選択したサーバーへの接続を開きます。 たとえば、レイヤ7ロードバランサは、ビデオをホストするサーバーにビデオトラフィックを誘導し、より重要なユーザー請求トラフィックをセキュリティ強化されたサーバーに誘導します。

柔軟性を犠牲にして、レイヤ4ロードバランシングでは、レイヤ7よりも時間とコンピューティングリソースが少なくてすみますが、現代のコモディティハードウェアではパフォーマンスへの影響は最小限に抑えられます。

水平スケーリング

ロードバランサは、水平スケーリングにも役立ち、パフォーマンスと可用性を向上させます。 コモディティマシンを使用したスケールアウトはコスト効率が高く、高価なハードウェア上で単一のサーバーをスケールアップする、「 垂直スケーリング」よりも高い可用性をもたらします。 専門のエンタープライズシステムよりも商品ハードウェアを扱う人材を雇う方が簡単です。

短所:水平スケーリング

  • 水平方向のスケーリングは複雑さをもたらし、サーバーのクローン作成
    • サーバはステートレスでなければなりません。つまり、セッションやプロフィール写真などのユーザ関連のデータを含むべきではありません
    • セッションは、 データベース (SQL、NoSQL)や永続キャッシュ (Redis、Memcached)などの集中データストアに格納できます。
  • キャッシュやデータベースなどのダウンストリームサーバーは、アップストリームサーバーがスケールアウトすると同時により多くの接続を処理する必要があります

短所:ロードバランサ

  • 十分なリソースがない場合、または適切に構成されていない場合、ロードバランサはパフォーマンスのボトルネックになる可能性があります。
  • 単一障害点を排除するためにロードバランサを導入すると、複雑さが増します。
  • 単一のロードバランサは単一障害点です。複数のロードバランサを構成すると、さらに複雑さが増します。

出典と追加の読書

リバースプロキシ(Webサーバー)


出典:ウィキペディア

リバースプロキシは、内部サービスを集中管理し、一般に公開されたインターフェースを提供するWebサーバーです。 クライアントからの要求は、リバースプロキシがクライアントにサーバーの応答を返す前に、それを満たすことができるサーバーに転送されます。

その他の利点は次のとおりです。

  • セキュリティの強化 – バックエンドサーバ、ブラックリストIP、クライアントごとの接続数を制限する情報を隠す
  • スケーラビリティと柔軟性の向上 – クライアントはリバースプロキシのIPのみを参照するため、サーバーの拡張や構成の変更が可能です。
  • SSL終了 – 受信リクエストを復号化し、サーバレスポンスを暗号化して、バックエンドサーバがこれらの潜在的に高価な操作を実行する必要がないようにする
  • 圧縮 – サーバーの応答を圧縮する
  • キャッシング – キャッシュされたリクエストのレスポンスを返す
  • 静的コンテンツ – 静的コンテンツを直接配信する
    • HTML / CSS / JS
    • 写真
    • ビデオ

ロードバランサとリバースプロキシ

  • ロードバランサの展開は、複数のサーバーを使用する場合に便利です。 多くの場合、ロードバランサは、同じ機能を果たす一連のサーバーにトラフィックをルーティングします。
  • 逆プロキシは、1つのWebサーバーまたはアプリケーションサーバーでも役立ち、前のセクションで説明した利点を活用します。
  • NGINXやHAProxyなどのソリューションは、レイヤ7リバースプロキシとロードバランシングの両方をサポートできます。

短所:リバースプロキシ

  • リバースプロキシを導入すると、複雑さが増します。
  • 単一のリバースプロキシは単一障害点であり、複数のリバースプロキシ(つまりフェイルオーバー )を構成するとさらに複雑さが増します。

出典と追加の読書

アプリケーション層


出典:スケールのための建築システムの紹介

アプリケーションレイヤー(プラットフォームレイヤーとも呼ばれます)からWebレイヤーを分離することで、両方のレイヤーを個別にスケールして構成することができます。 新しいAPIを追加すると、必ずしも追加のWebサーバーを追加する必要はなく、アプリケーションサーバーが追加されます。 単一の責任原則は、一緒に働く小規模で自立的なサービスを主張しています。 小規模なサービスを持つ小規模チームは、急速な成長のためにより積極的に計画することができます。

アプリケーション層の作業者は、 非同期を有効にするのにも役立ちます

マイクロサービス

この議論に関連しているのは、 マイクロサービスであり、これは、独立して展開可能で小型のモジュラーサービスのスイートとして記述することができます。 各サービスは独自のプロセスを実行し、ビジネス目標を達成するための明確で軽量なメカニズムを介して通信します。 1

たとえば、Pinterestは、ユーザープロファイル、フォロワー、フィード、検索、写真のアップロードなどのマイクロサービスを持つことができます。

サービス発見

ConsulEtcdZookeeperなどのシステムは、登録された名前、アドレス、およびポートを追跡することによって、サービスの相互検索を支援できます。 ヘルスチェックはサービスの整合性を確認するのに役立ち、 HTTPエンドポイントを使用して行われることがよくあります。 ConsulとEtcdの両方には、設定値やその他の共有データを格納するのに便利なキーバリューストアが組み込まれています

短所:アプリケーション層

  • 緩やかに結合されたサービスを持つアプリケーション層を追加するには、アーキテクチャ、操作、およびプロセスの観点(モノリシック・システム)とは異なるアプローチが必要です。
  • マイクロサービスは、展開と操作の面で複雑さを増す可能性があります。

出典と追加の読書

データベース


出典:最初の1000万人のユーザーに拡大

リレーショナルデータベース管理システム(RDBMS)

SQLのようなリレーショナル・データベースは、表で構成されたデータ項目の集合です。

ACIDは、リレーショナルデータベーストランザクションのプロパティのセットです。

  • アトミック性 – 各トランザクションはすべてまたは何もない
  • 一貫性 – どのトランザクションでもデータベースが有効な状態から別の有効な状態に移行します
  • 分離 – トランザクションを同時に実行すると、トランザクションが順次実行された場合と同じ結果になります
  • 耐久性 – トランザクションがコミットされると、トランザクションはコミットされたままになります

リレーショナルデータベースをスケールするには、 マスター/スレーブレプリケーションマスター/マスターレプリケーションフェデレーションシャーディング非正規化SQLチューニングなどの多くの手法があります

マスター/スレーブレプリケーション

マスタは読み取りと書き込みを行い、1つ以上のスレーブに書き込みを複製します。 スレーブはツリー状に追加のスレーブに複製することもできます。 マスタがオフラインになると、スレーブがマスタに昇格されるか、新しいマスタがプロビジョニングされるまで、システムは読み取り専用モードで動作し続けることができます。


出典:スケーラビリティ、可用性、安定性、パターン

短所:マスター – スレーブレプリケーション
  • スレーブをマスタに昇格させるには、追加のロジックが必要です。
  • 短所( master-slaveとmaster-masterの両方に関連するポイントの複製)を参照してください。

マスター – マスターレプリケーション

両方のマスタは読み書きに対応し、書き込み時には互いに調整します。 いずれかのマスターがダウンすると、システムは読み取りと書き込みの両方で動作を継続できます。


出典:スケーラビリティ、可用性、安定性、パターン

短所:マスター – マスターレプリケーション
  • ロードバランサが必要になるか、アプリケーションロジックを変更してどこに書き込むかを判断する必要があります。
  • ほとんどのマスタマスターシステムは、緩やかに一貫性があり(ACIDに違反している)、同期化のために書き込み待ち時間が長くなっています。
  • 競合解消は、より多くの書き込みノードが追加され、レイテンシが増加するにつれ、より効果的になります。
  • 短所( master-slaveとmaster-masterの両方に関連するポイントの複製)を参照してください。
短所:複製
  • 新たに書き込まれたデータが他のノードに複製される前にマスタが故障した場合、データが失われる可能性があります。
  • 書き込みは読み取り複製に再生されます。 多くの書き込みがある場合、読み取り複製は、書き込みの再実行によって低速になり、多くの読み取りを行うことができません。
  • スレーブの読み込み量が多いほど、複製する必要があります。複製の遅延が大きくなります。
  • システムによっては、マスターに書き込むと複数のスレッドが生成され、並列に書き込むことができますが、読み取りレプリカは1つのスレッドで順番に書き込みをサポートするだけです。
  • レプリケーションにより、ハードウェアが増え、複雑さが増します。
ソースと追加情報:複製

フェデレーション


出典:最初の1000万人のユーザーに拡大

フェデレーション(または機能的パーティショニング)は、機能ごとにデータベースを分割します。 たとえば、単一のモノリシックデータベースではなく、 フォーラムユーザー 、および製品の 3つのデータベースを使用すると 、各データベースへの読み書きトラフィックが少なくなり、レプリケーションの遅延が少なくなります。 データベースが小さくなればなるほど、メモリに収まるデータが増えるため、キャッシュのローカリティが向上し、キャッシュヒットが増えます。 単一のセントラルマスターで書き込みをシリアル化することなく、並列で書き込みを行うことができ、スループットが向上します。

短所:フェデレーション
  • スキーマに膨大な機能やテーブルが必要な場合、フェデレーションは効果的ではありません。
  • アプリケーション・ロジックを更新して、どのデータベースを読み書きするかを決定する必要があります。
  • 2つのデータベースからのデータの結合は、 サーバーのリンクとより複雑です。
  • フェデレーションは、ハードウェアと複雑さを増やします。
出典とさらに読む:連合

シャーディング


出典:スケーラビリティ、可用性、安定性、パターン

シャーディングは、各データベースがデータのサブセットのみを管理できるように、異なるデータベース間でデータを配布します。 ユーザーデータベースを例にとると、ユーザー数が増えるにつれて、より多くのシャードがクラスタに追加されます。

フェデレーションの利点と同様に、シャーディングは読み込みトラフィックと書き込みトラフィックの削減、レプリケーションの削減、およびキャッシュヒットの増加をもたらします。 索引のサイズも縮小され、一般に高速な問合せでパフォーマンスが向上します。 1つのシャードがダウンすると、他のシャードはまだ動作していますが、データ損失を避けるために何らかの形のレプリケーションを追加する必要があります。 Like federation, there is no single central master serializing writes, allowing you to write in parallel with increased throughput.

Common ways to shard a table of users is either through the user’s last name initial or the user’s geographic location.

Disadvantage(s): sharding
  • You’ll need to update your application logic to work with shards, which could result in complex SQL queries.
  • Data distribution can become lopsided in a shard. For example, a set of power users on a shard could result in increased load to that shard compared to others.
    • Rebalancing adds additional complexity. A sharding function based on consistent hashing can reduce the amount of transferred data.
  • Joining data from multiple shards is more complex.
  • Sharding adds more hardware and additional complexity.
Source(s) and further reading: sharding

Denormalization

Denormalization attempts to improve read performance at the expense of some write performance. Redundant copies of the data are written in multiple tables to avoid expensive joins. Some RDBMS such as PostgreSQL and Oracle support materialized views which handle the work of storing redundant information and keeping redundant copies consistent.

Once data becomes distributed with techniques such as federation and sharding , managing joins across data centers further increases complexity. Denormalization might circumvent the need for such complex joins.

In most systems, reads can heavily outnumber writes 100:1 or even 1000:1. A read resulting in a complex database join can be very expensive, spending a significant amount of time on disk operations.

Disadvantage(s): denormalization
  • Data is duplicated.
  • Constraints can help redundant copies of information stay in sync, which increases complexity of the database design.
  • A denormalized database under heavy write load might perform worse than its normalized counterpart.
Source(s) and further reading: denormalization

SQL tuning

SQL tuning is a broad topic and many books have been written as reference.

It’s important to benchmark and profile to simulate and uncover bottlenecks.

  • Benchmark – Simulate high-load situations with tools such as ab .
  • Profile – Enable tools such as the slow query log to help track performance issues.

Benchmarking and profiling might point you to the following optimizations.

Tighten up the schema
  • MySQL dumps to disk in contiguous blocks for fast access.
  • Use CHAR instead of VARCHAR for fixed-length fields.
    • CHAR effectively allows for fast, random access, whereas with VARCHAR , you must find the end of a string before moving onto the next one.
  • Use TEXT for large blocks of text such as blog posts. TEXT also allows for boolean searches. Using a TEXT field results in storing a pointer on disk that is used to locate the text block.
  • Use INT for larger numbers up to 2^32 or 4 billion.
  • Use DECIMAL for currency to avoid floating point representation errors.
  • Avoid storing large BLOBS , store the location of where to get the object instead.
  • VARCHAR(255) is the largest number of characters that can be counted in an 8 bit number, often maximizing the use of a byte in some RDBMS.
  • Set the NOT NULL constraint where applicable to improve search performance .
Use good indices
  • Columns that you are querying ( SELECT , GROUP BY , ORDER BY , JOIN ) could be faster with indices.
  • Indices are usually represented as self-balancing B-tree that keeps data sorted and allows searches, sequential access, insertions, and deletions in logarithmic time.
  • Placing an index can keep the data in memory, requiring more space.
  • Writes could also be slower since the index also needs to be updated.
  • When loading large amounts of data, it might be faster to disable indices, load the data, then rebuild the indices.
Avoid expensive joins
Partition tables
  • Break up a table by putting hot spots in a separate table to help keep it in memory.
Tune the query cache
Source(s) and further reading: SQL tuning

NoSQL

NoSQL is a collection of data items represented in a key-value store , document-store , wide column store , or a graph database . Data is denormalized, and joins are generally done in the application code. Most NoSQL stores lack true ACID transactions and favor eventual consistency .

BASE is often used to describe the properties of NoSQL databases. In comparison with the CAP Theorem , BASE chooses availability over consistency.

  • Basically available – the system guarantees availability.
  • Soft state – the state of the system may change over time, even without input.
  • Eventual consistency – the system will become consistent over a period of time, given that the system doesn’t receive input during that period.

In addition to choosing between SQL or NoSQL , it is helpful to understand which type of NoSQL database best fits your use case(s). We’ll review key-value stores , document-stores , wide column stores , and graph databases in the next section.

Key-value store

Abstraction: hash table

A key-value store generally allows for O(1) reads and writes and is often backed by memory or SSD. Data stores can maintain keys in lexicographic order , allowing efficient retrieval of key ranges. Key-value stores can allow for storing of metadata with a value.

Key-value stores provide high performance and are often used for simple data models or for rapidly-changing data, such as an in-memory cache layer. Since they offer only a limited set of operations, complexity is shifted to the application layer if additional operations are needed.

A key-value store is the basis for more complex systems such as a document store, and in some cases, a graph database.

Source(s) and further reading: key-value store

Document store

Abstraction: key-value store with documents stored as values

A document store is centered around documents (XML, JSON, binary, etc), where a document stores all information for a given object. Document stores provide APIs or a query language to query based on the internal structure of the document itself. Note, many key-value stores include features for working with a value’s metadata, blurring the lines between these two storage types.

Based on the underlying implementation, documents are organized in either collections, tags, metadata, or directories. Although documents can be organized or grouped together, documents may have fields that are completely different from each other.

Some document stores like MongoDB and CouchDB also provide a SQL-like language to perform complex queries. DynamoDB supports both key-values and documents.

Document stores provide high flexibility and are often used for working with occasionally changing data.

Source(s) and further reading: document store

Wide column store


Source: SQL & NoSQL, a brief history

Abstraction: nested map ColumnFamily<RowKey, Columns<ColKey, Value, Timestamp>>

A wide column store’s basic unit of data is a column (name/value pair). A column can be grouped in column families (analogous to a SQL table). Super column families further group column families. You can access each column independently with a row key, and columns with the same row key form a row. Each value contains a timestamp for versioning and for conflict resolution.

Google introduced Bigtable as the first wide column store, which influenced the open-source HBase often-used in the Hadoop ecosystem, and Cassandra from Facebook. Stores such as BigTable, HBase, and Cassandra maintain keys in lexicographic order, allowing efficient retrieval of selective key ranges.

Wide column stores offer high availability and high scalability. They are often used for very large data sets.

Source(s) and further reading: wide column store

グラフデータベース


Source: Graph database

Abstraction: graph

In a graph database, each node is a record and each arc is a relationship between two nodes. Graph databases are optimized to represent complex relationships with many foreign keys or many-to-many relationships.

Graphs databases offer high performance for data models with complex relationships, such as a social network. They are relatively new and are not yet widely-used; it might be more difficult to find development tools and resources. Many graphs can only be accessed with REST APIs .

Source(s) and further reading: graph

Source(s) and further reading: NoSQL

SQL or NoSQL


Source: Transitioning from RDBMS to NoSQL

Reasons for SQL :

  • Structured data
  • Strict schema
  • Relational data
  • Need for complex joins
  • トランザクション
  • Clear patterns for scaling
  • More established: developers, community, code, tools, etc
  • Lookups by index are very fast

Reasons for NoSQL :

  • 半構造化データ
  • Dynamic or flexible schema
  • Non-relational data
  • No need for complex joins
  • Store many TB (or PB) of data
  • Very data intensive workload
  • Very high throughput for IOPS

Sample data well-suited for NoSQL:

  • Rapid ingest of clickstream and log data
  • Leaderboard or scoring data
  • Temporary data, such as a shopping cart
  • Frequently accessed (‘hot’) tables
  • Metadata/lookup tables
Source(s) and further reading: SQL or NoSQL

キャッシュ


Source: Scalable system design patterns

Caching improves page load times and can reduce the load on your servers and databases. In this model, the dispatcher will first lookup if the request has been made before and try to find the previous result to return, in order to save the actual execution.

Databases often benefit from a uniform distribution of reads and writes across its partitions. Popular items can skew the distribution, causing bottlenecks. Putting a cache in front of a database can help absorb uneven loads and spikes in traffic.

Client caching

Caches can be located on the client side (OS or browser), server side , or in a distinct cache layer.

CDN caching

CDNs are considered a type of cache.

Web server caching

Reverse proxies and caches such as Varnish can serve static and dynamic content directly. Web servers can also cache requests, returning responses without having to contact application servers.

データベースキャッシング

Your database usually includes some level of caching in a default configuration, optimized for a generic use case. Tweaking these settings for specific usage patterns can further boost performance.

Application caching

In-memory caches such as Memcached and Redis are key-value stores between your application and your data storage. Since the data is held in RAM, it is much faster than typical databases where data is stored on disk. RAM is more limited than disk, so cache invalidation algorithms such as least recently used (LRU) can help invalidate ‘cold’ entries and keep ‘hot’ data in RAM.

Redis has the following additional features:

  • Persistence option
  • Built-in data structures such as sorted sets and lists

There are multiple levels you can cache that fall into two general categories: database queries and objects :

  • Row level
  • Query-level
  • Fully-formed serializable objects
  • Fully-rendered HTML

Generally, you should try to avoid file-based caching, as it makes cloning and auto-scaling more difficult.

Caching at the database query level

Whenever you query the database, hash the query as a key and store the result to the cache. This approach suffers from expiration issues:

  • Hard to delete a cached result with complex queries
  • If one piece of data changes such as a table cell, you need to delete all cached queries that might include the changed cell

Caching at the object level

See your data as an object, similar to what you do with your application code. Have your application assemble the dataset from the database into a class instance or a data structure(s):

  • Remove the object from cache if its underlying data has changed
  • Allows for asynchronous processing: workers assemble objects by consuming the latest cached object

Suggestions of what to cache:

  • User sessions
  • Fully rendered web pages
  • アクティビティストリーム
  • User graph data

When to update the cache

Since you can only store a limited amount of data in cache, you’ll need to determine which cache update strategy works best for your use case.

Cache-aside


Source: From cache to in-memory data grid

The application is responsible for reading and writing from storage. The cache does not interact with storage directly. The application does the following:

  • Look for entry in cache, resulting in a cache miss
  • Load entry from the database
  • Add entry to cache
  • Return entry
def get_user(self, user_id):
    user = cache.get("user.{0}", user_id)
    if user is None:
        user = db.query("SELECT * FROM users WHERE user_id = {0}", user_id)
        if user is not None:
            key = "user.{0}".format(user_id)
            cache.set(key, json.dumps(user))
    return user

Memcached is generally used in this manner.

Subsequent reads of data added to cache are fast. Cache-aside is also referred to as lazy loading. Only requested data is cached, which avoids filling up the cache with data that isn’t requested.

Disadvantage(s): cache-aside
  • Each cache miss results in three trips, which can cause a noticeable delay.
  • Data can become stale if it is updated in the database. This issue is mitigated by setting a time-to-live (TTL) which forces an update of the cache entry, or by using write-through.
  • When a node fails, it is replaced by a new, empty node, increasing latency.

ライトスルー


Source: Scalability, availability, stability, patterns

The application uses the cache as the main data store, reading and writing data to it, while the cache is responsible for reading and writing to the database:

  • Application adds/updates entry in cache
  • Cache synchronously writes entry to data store
  • 戻る

Application code:

set_user(12345, {"foo":"bar"})

Cache code:

def set_user(user_id, values):
    user = db.query("UPDATE Users WHERE id = {0}", user_id, values)
    cache.set(user_id, user)

Write-through is a slow overall operation due to the write operation, but subsequent reads of just written data are fast. Users are generally more tolerant of latency when updating data than reading data. Data in the cache is not stale.

Disadvantage(s): write through
  • When a new node is created due to failure or scaling, the new node will not cache entries until the entry is updated in the database. Cache-aside in conjunction with write through can mitigate this issue.
  • Most data written might never read, which can be minimized with a TTL.

Write-behind (write-back)


Source: Scalability, availability, stability, patterns

In write-behind, the application does the following:

  • Add/update entry in cache
  • Asynchronously write entry to the data store, improving write performance
Disadvantage(s): write-behind
  • There could be data loss if the cache goes down prior to its contents hitting the data store.
  • It is more complex to implement write-behind than it is to implement cache-aside or write-through.

Refresh-ahead


Source: From cache to in-memory data grid

You can configure the cache to automatically refresh any recently accessed cache entry prior to its expiration.

Refresh-ahead can result in reduced latency vs read-through if the cache can accurately predict which items are likely to be needed in the future.

Disadvantage(s): refresh-ahead
  • Not accurately predicting which items are likely to be needed in the future can result in reduced performance than without refresh-ahead.

Disadvantage(s): cache

  • Need to maintain consistency between caches and the source of truth such as the database through cache invalidation .
  • Cache invalidation is a difficult problem, there is additional complexity associated with when to update the cache.
  • Need to make application changes such as adding Redis or memcached.

Source(s) and further reading

Asynchronism


Source: Intro to architecting systems for scale

Asynchronous workflows help reduce request times for expensive operations that would otherwise be performed in-line. They can also help by doing time-consuming work in advance, such as periodic aggregation of data.

メッセージキュー

Message queues receive, hold, and deliver messages. If an operation is too slow to perform inline, you can use a message queue with the following workflow:

  • An application publishes a job to the queue, then notifies the user of job status
  • A worker picks up the job from the queue, processes it, then signals the job is complete

The user is not blocked and the job is processed in the background. During this time, the client might optionally do a small amount of processing to make it seem like the task has completed. For example, if posting a tweet, the tweet could be instantly posted to your timeline, but it could take some time before your tweet is actually delivered to all of your followers.

Redis is useful as a simple message broker but messages can be lost.

RabbitMQ is popular but requires you to adapt to the ‘AMQP’ protocol and manage your own nodes.

Amazon SQS , is hosted but can have high latency and has the possibility of messages being delivered twice.

Task queues

Tasks queues receive tasks and their related data, runs them, then delivers their results. They can support scheduling and can be used to run computationally-intensive jobs in the background.

Celery has support for scheduling and primarily has python support.

Back pressure

If queues start to grow significantly, the queue size can become larger than memory, resulting in cache misses, disk reads, and even slower performance. Back pressure can help by limiting the queue size, thereby maintaining a high throughput rate and good response times for jobs already in the queue. Once the queue fills up, clients get a server busy or HTTP 503 status code to try again later. Clients can retry the request at a later time, perhaps with exponential backoff .

Disadvantage(s): asynchronism

  • Use cases such as inexpensive calculations and realtime workflows might be better suited for synchronous operations, as introducing queues can add delays and complexity.

Source(s) and further reading

コミュニケーション


Source: OSI 7 layer model

Hypertext transfer protocol (HTTP)

HTTP is a method for encoding and transporting data between a client and a server. It is a request/response protocol: clients issue requests and servers issue responses with relevant content and completion status info about the request. HTTP is self-contained, allowing requests and responses to flow through many intermediate routers and servers that perform load balancing, caching, encryption, and compression.

A basic HTTP request consists of a verb (method) and a resource (endpoint). Below are common HTTP verbs:

動詞 説明 Idempotent* 安全 Cacheable
取得する Reads a resource はい はい はい
役職 Creates a resource or trigger a process that handles data いいえ いいえ Yes if response contains freshness info
PUT Creates or replace a resource はい いいえ いいえ
パッチ Partially updates a resource いいえ いいえ Yes if response contains freshness info
削除 Deletes a resource はい いいえ いいえ

*Can be called many times without different outcomes.

HTTP is an application layer protocol relying on lower-level protocols such as TCP and UDP .

Source(s) and further reading: HTTP

Transmission control protocol (TCP)


Source: How to make a multiplayer game

TCP is a connection-oriented protocol over an IP network . Connection is established and terminated using a handshake . All packets sent are guaranteed to reach the destination in the original order and without corruption through:

If the sender does not receive a correct response, it will resend the packets. If there are multiple timeouts, the connection is dropped. TCP also implements flow control and congestion control . These guarantees cause delays and generally result in less efficient transmission than UDP.

To ensure high throughput, web servers can keep a large number of TCP connections open, resulting in high memory usage. It can be expensive to have a large number of open connections between web server threads and say, a memcached server. Connection pooling can help in addition to switching to UDP where applicable.

TCP is useful for applications that require high reliability but are less time critical. Some examples include web servers, database info, SMTP, FTP, and SSH.

Use TCP over UDP when:

  • You need all of the data to arrive intact
  • You want to automatically make a best estimate use of the network throughput

User datagram protocol (UDP)


Source: How to make a multiplayer game

UDP is connectionless. Datagrams (analogous to packets) are guaranteed only at the datagram level. Datagrams might reach their destination out of order or not at all. UDP does not support congestion control. Without the guarantees that TCP support, UDP is generally more efficient.

UDP can broadcast, sending datagrams to all devices on the subnet. This is useful with DHCP because the client has not yet received an IP address, thus preventing a way for TCP to stream without the IP address.

UDP is less reliable but works well in real time use cases such as VoIP, video chat, streaming, and realtime multiplayer games.

Use UDP over TCP when:

  • You need the lowest latency
  • Late data is worse than loss of data
  • You want to implement your own error correction

Source(s) and further reading: TCP and UDP

Remote procedure call (RPC)


Source: Crack the system design interview

In an RPC, a client causes a procedure to execute on a different address space, usually a remote server. The procedure is coded as if it were a local procedure call, abstracting away the details of how to communicate with the server from the client program. Remote calls are usually slower and less reliable than local calls so it is helpful to distinguish RPC calls from local calls. Popular RPC frameworks include Protobuf , Thrift , and Avro .

RPC is a request-response protocol:

  • Client program – Calls the client stub procedure. The parameters are pushed onto the stack like a local procedure call.
  • Client stub procedure – Marshals (packs) procedure id and arguments into a request message.
  • Client communication module – OS sends the message from the client to the server.
  • Server communication module – OS passes the incoming packets to the server stub procedure.
  • Server stub procedure – Unmarshalls the results, calls the server procedure matching the procedure id and passes the given arguments.
  • The server response repeats the steps above in reverse order.

Sample RPC calls:

GET /someoperation?data=anId

POST /anotheroperation
{
  "data":"anId";
  "anotherdata": "another value"
}

RPC is focused on exposing behaviors. RPCs are often used for performance reasons with internal communications, as you can hand-craft native calls to better fit your use cases.

Choose a native library (aka SDK) when:

  • You know your target platform.
  • You want to control how your “logic” is accessed.
  • You want to control how error control happens off your library.
  • Performance and end user experience is your primary concern.

HTTP APIs following REST tend to be used more often for public APIs.

Disadvantage(s): RPC

  • RPC clients become tightly coupled to the service implementation.
  • A new API must be defined for every new operation or use case.
  • It can be difficult to debug RPC.
  • You might not be able to leverage existing technologies out of the box. For example, it might require additional effort to ensure RPC calls are properly cached on caching servers such as Squid .

Representational state transfer (REST)

REST is an architectural style enforcing a client/server model where the client acts on a set of resources managed by the server. The server provides a representation of resources and actions that can either manipulate or get a new representation of resources. All communication must be stateless and cacheable.

There are four qualities of a RESTful interface:

  • Identify resources (URI in HTTP) – use the same URI regardless of any operation.
  • Change with representations (Verbs in HTTP) – use verbs, headers, and body.
  • Self-descriptive error message (status response in HTTP) – Use status codes, don’t reinvent the wheel.
  • HATEOAS (HTML interface for HTTP) – your web service should be fully accessible in a browser.

Sample REST calls:

GET /someresources/anId

PUT /someresources/anId
{"anotherdata": "another value"}

REST is focused on exposing data. It minimizes the coupling between client/server and is often used for public HTTP APIs. REST uses a more generic and uniform method of exposing resources through URIs, representation through headers , and actions through verbs such as GET, POST, PUT, DELETE, and PATCH. Being stateless, REST is great for horizontal scaling and partitioning.

Disadvantage(s): REST

  • With REST being focused on exposing data, it might not be a good fit if resources are not naturally organized or accessed in a simple hierarchy. For example, returning all updated records from the past hour matching a particular set of events is not easily expressed as a path. With REST, it is likely to be implemented with a combination of URI path, query parameters, and possibly the request body.
  • REST typically relies on a few verbs (GET, POST, PUT, DELETE, and PATCH) which sometimes doesn’t fit your use case. For example, moving expired documents to the archive folder might not cleanly fit within these verbs.
  • Fetching complicated resources with nested hierarchies requires multiple round trips between the client and server to render single views, eg fetching content of a blog entry and the comments on that entry. For mobile applications operating in variable network conditions, these multiple roundtrips are highly undesirable.
  • Over time, more fields might be added to an API response and older clients will receive all new data fields, even those that they do not need, as a result, it bloats the payload size and leads to larger latencies.

RPC and REST calls comparison

操作 RPC 残り
サインアップ POST /signup POST /persons
Resign POST /resign
{
“personid”: “1234”
}
DELETE /persons/1234
Read a person GET /readPerson?personid=1234 GET /persons/1234
Read a person’s items list GET /readUsersItemsList?personid=1234 GET /persons/1234/items
Add an item to a person’s items POST /addItemToUsersItemsList
{
“personid”: “1234”;
“itemid”: “456”
}
POST /persons/1234/items
{
“itemid”: “456”
}
Update an item POST /modifyItem
{
“itemid”: “456”;
“key”: “value”
}
PUT /items/456
{
“key”: “value”
}
アイテムを削除する POST /removeItem
{
“itemid”: “456”
}
DELETE /items/456

Source: Do you really know why you prefer REST over RPC

Source(s) and further reading: REST and RPC

セキュリティ

This section could use some updates. Consider contributing !

Security is a broad topic. Unless you have considerable experience, a security background, or are applying for a position that requires knowledge of security, you probably won’t need to know more than the basics:

  • Encrypt in transit and at rest.
  • Sanitize all user inputs or any input parameters exposed to user to prevent XSS and SQL injection .
  • Use parameterized queries to prevent SQL injection.
  • Use the principle of least privilege .

Source(s) and further reading

付録

You’ll sometimes be asked to do ‘back-of-the-envelope’ estimates. For example, you might need to determine how long it will take to generate 100 image thumbnails from disk or how much memory a data structure will take. The Powers of two table and Latency numbers every programmer should know are handy references.

Powers of two table

Power           Exact Value         Approx Value        Bytes
---------------------------------------------------------------
7                             128
8                             256
10                           1024   1 thousand           1 KB
16                         65,536                       64 KB
20                      1,048,576   1 million            1 MB
30                  1,073,741,824   1 billion            1 GB
32                  4,294,967,296                        4 GB
40              1,099,511,627,776   1 trillion           1 TB

Source(s) and further reading

プログラマが知るべき待ち時間の数字

Latency Comparison Numbers
--------------------------
L1 cache reference                           0.5 ns
Branch mispredict                            5   ns
L2 cache reference                           7   ns                      14x L1 cache
Mutex lock/unlock                          100   ns
Main memory reference                      100   ns                      20x L2 cache, 200x L1 cache
Compress 1K bytes with Zippy            10,000   ns       10 us
Send 1 KB bytes over 1 Gbps network     10,000   ns       10 us
Read 4 KB randomly from SSD*           150,000   ns      150 us          ~1GB/sec SSD
Read 1 MB sequentially from memory     250,000   ns      250 us
Round trip within same datacenter      500,000   ns      500 us
Read 1 MB sequentially from SSD*     1,000,000   ns    1,000 us    1 ms  ~1GB/sec SSD, 4X memory
Disk seek                           10,000,000   ns   10,000 us   10 ms  20x datacenter roundtrip
Read 1 MB sequentially from 1 Gbps  10,000,000   ns   10,000 us   10 ms  40x memory, 10X SSD
Read 1 MB sequentially from disk    30,000,000   ns   30,000 us   30 ms 120x memory, 30X SSD
Send packet CA->Netherlands->CA    150,000,000   ns  150,000 us  150 ms

Notes
-----
1 ns = 10^-9 seconds
1 us = 10^-6 seconds = 1,000 ns
1 ms = 10^-3 seconds = 1,000 us = 1,000,000 ns

Handy metrics based on numbers above:

  • Read sequentially from disk at 30 MB/s
  • Read sequentially from 1 Gbps Ethernet at 100 MB/s
  • Read sequentially from SSD at 1 GB/s
  • Read sequentially from main memory at 4 GB/s
  • 6-7 world-wide round trips per second
  • 2,000 round trips per second within a data center

Latency numbers visualized

Source(s) and further reading

Additional system design interview questions

Common system design interview questions, with links to resources on how to solve each.

質問 リファレンス(複数可)
Design a file sync service like Dropbox youtube.com
Design a search engine like Google queue.acm.org
stackexchange.com
ardendertat.com
stanford.edu
Design a scalable web crawler like Google quora.com
Design Google docs code.google.com
neil.fraser.name
Design a key-value store like Redis slideshare.net
Design a cache system like Memcached slideshare.net
Design a recommendation system like Amazon’s hulu.com
ijcai13.org
Design a tinyurl system like Bitly n00tc0d3r.blogspot.com
Design a chat app like WhatsApp highscalability.com
Design a picture sharing system like Instagram highscalability.com
highscalability.com
Design the Facebook news feed function quora.com
quora.com
slideshare.net
Design the Facebook timeline function facebook.com
highscalability.com
Design the Facebook chat function erlang-factory.com
facebook.com
Design a graph search function like Facebook’s facebook.com
facebook.com
facebook.com
Design a content delivery network like CloudFlare cmu.edu
Design a trending topic system like Twitter’s michael-noll.com
snikolov .wordpress.com
Design a random ID generation system blog.twitter.com
github.com
Return the top k requests during a time interval ucsb.edu
wpi.edu
Design a system that serves data from multiple data centers highscalability.com
Design an online multiplayer card game indieflashblog.com
buildnewgames.com
Design a garbage collection system stuffwithstuff.com
washington.edu
Design an API rate limiter https://stripe.com/blog/
Add a system design question 寄稿

Real world architectures

Articles on how real world systems are designed.


Source: Twitter timelines at scale

Don’t focus on nitty gritty details for the following articles, instead:

  • Identify shared principles, common technologies, and patterns within these articles
  • Study what problems are solved by each component, where it works, where it doesn’t
  • Review the lessons learned
タイプ システム リファレンス(複数可)
情報処理 MapReduce – Distributed data processing from Google research.google.com
情報処理 Spark – Distributed data processing from Databricks slideshare.net
情報処理 Storm – Distributed data processing from Twitter slideshare.net
データストア Bigtable – Distributed column-oriented database from Google harvard.edu
データストア HBase – Open source implementation of Bigtable slideshare.net
データストア Cassandra – Distributed column-oriented database from Facebook slideshare.net
データストア DynamoDB – Document-oriented database from Amazon harvard.edu
データストア MongoDB – Document-oriented database slideshare.net
データストア Spanner – Globally-distributed database from Google research.google.com
データストア Memcached – Distributed memory caching system slideshare.net
データストア Redis – Distributed memory caching system with persistence and value types slideshare.net
ファイルシステム Google File System (GFS) – Distributed file system research.google.com
ファイルシステム Hadoop File System (HDFS) – Open source implementation of GFS apache.org
その他 Chubby – Lock service for loosely-coupled distributed systems from Google research.google.com
その他 Dapper – Distributed systems tracing infrastructure research.google.com
その他 Kafka – Pub/sub message queue from LinkedIn slideshare.net
その他 Zookeeper – Centralized infrastructure and services enabling synchronization slideshare.net
Add an architecture 寄稿

Company architectures

会社 リファレンス(複数可)
アマゾン Amazon architecture
Cinchcast Producing 1,500 hours of audio every day
DataSift Realtime datamining At 120,000 tweets per second
ドロップボックス How we’ve scaled Dropbox
ESPN Operating At 100,000 duh nuh nuhs per second
Google Google architecture
インスタグラム 14 million users, terabytes of photos
What powers Instagram
ジャスティンテレビ Justin.Tv’s live video broadcasting architecture
フェイスブック Scaling memcached at Facebook
TAO: Facebook’s distributed data store for the social graph
Facebook’s photo storage
How Facebook Live Streams To 800,000 Simultaneous Viewers
Flickr Flickr architecture
メールボックス From 0 to one million users in 6 weeks
Netflix Netflix: What Happens When You Press Play?
Pinterest From 0 To 10s of billions of page views a month
18 million visitors, 10x growth, 12 employees
Playfish 50 million monthly users and growing
PlentyOfFish PlentyOfFish architecture
Salesforce How they handle 1.3 billion transactions a day
スタックオーバーフロー Stack Overflow architecture
ホテル 40M visitors, 200M dynamic page views, 30TB data
タンブラー 15 billion page views a month
Twitter Making Twitter 10000 percent faster
Storing 250 million tweets a day using MySQL
150M active users, 300K QPS, a 22 MB/S firehose
Timelines at scale
Big and small data at Twitter
Operations at Twitter: scaling beyond 100 million users
ウバー How Uber scales their real-time market platform
Lessons Learned From Scaling Uber To 2000 Engineers, 1000 Services, And 8000 Git Repositories
WhatsApp The WhatsApp architecture Facebook bought for $19 billion
YouTube YouTube scalability
YouTube architecture

Company engineering blogs

Architectures for companies you are interviewing with.

Questions you encounter might be from the same domain.

Source(s) and further reading

Looking to add a blog? To avoid duplicating work, consider adding your company blog to the following repo:

開発中で

Interested in adding a section or helping complete one in-progress? Contribute !

  • Distributed computing with MapReduce
  • Consistent hashing
  • Scatter gather
  • 寄稿

クレジット

Credits and sources are provided throughout this repo.

特別なおかげで:

Contact info

問題、質問、コメントなどについて私に連絡してください。

My contact info can be found on my GitHub page .

ライセンス

私はオープンソースライセンスの下であなたにこのリポジトリのコードとリソースを提供しています。 これは私の個人的なリポジトリなので、コードとリソースに受け取るライセンスは私の雇用者ではなく、私の雇用者(Facebook)ではありません。

Copyright 2017 Donne Martin

Creative Commons Attribution 4.0 International License (CC BY 4.0)

http://creativecommons.org/licenses/by/4.0/







-donnemartin
-, , , , , , , , , , , ,

執筆者: