Kubernetesを利用したクラウドネイティブな開発と運用とは何か? これまでと何が違うのか? サイバーエージェント青山氏が語る(前編) July Tech Festa 2019

2020年2月18日

Kubernetesを利用したクラウドネイティブな開発や運用は、これまでとどう違うのでしょうか、あるいはどのくらい進化したものなのでしょうか。

2019年12月8日に産業技術大学院大学で行われたイベント「July Tech Festa 2019」で、サイバーエージェントの青山真也氏が行ったセッション『「Kubernetes による Cloud Native な開発」と「VM 時代の開発」』で、VMを用いた従来の方法と比較しつつ、Kubernetesを前提としたクラウドネイティブのやり方が分かりやすく紹介されています。

その内容をダイジェストで紹介しましょう。本記事は前編後編に分かれています。いまお読みの記事は前編です。

「KubernetesによるCloud Nativeな開発」と「VM 時代の開発」

サイバーエージェントでインフラエンジニアをしております青山と申します。

fig

普段は、プライベートクラウド上でのマネージドKubernetesのプラットフォームを開発するプロダクトオーナーをしています。

また、パラレルキャリアとしてクリエーションラインの技術アドバイザーやさくらインターネットの客員研究員などもしております。

とにかくKubernetesの好きな人、と覚えてくれたらと思います。

今日は、KubernetesによるCloud Nativeの開発と、従来のVMを使った開発がどのくらい違うのか、比較しながらお話をしていきたいと思います。

fig1

Cloud Nativeとは?

Cloud Nativeな開発にはいろんな手段があると思いますが、今回はKubernetesを前提としてお話しします。

一方で、VMを使っていたらクラウドネイティブではないのかというとそうではなくて、VMを使っていてもクラウドネイティブな開発はできると考えています。

VMを使う開発でもいろいろなやり方があると思いますが、今回はあくまでも、少し前のVM時代のよくある開発と、いま新しくいわれているようなKubernetesを使った開発とを比較していきたいと思います。

さて、冒頭でもCloud Nativeというワードを使いましたが、Cloud Nativeは、Cloud Native Computing Foundationという団体が言語化した定義を発表しています

これを要約すると、疎結合システムで、復元力があるとか、管理しやすいとか、そういう特性を持ったシステムをオープンなテクノロジーを使ってスケーラブルに実現すること、また、それをできるように組織に力を与えることを、Cloud Nativeだといっています。

fig2

これを頭の片隅に置いていただいて、こういう特性を得るためにコンテナやKubernetesなどを技術要素のひとつとして使っているのだ、というのが、今日の話の主軸になります。

VMとコンテナはライフサイクルが違う

早速ですが、VMとコンテナはなにが違うのでしょうか。

ひとつ違うのは、隔離性がVMとコンテナでは大きく異なっています。

VMではVMごとにOSの領域が用意されるので、基本的には隔離性が高い状態になっています。

fig3

コンテナの場合、一般的に使われているruncと呼ばれるコンテナランタイムではカーネルを共有する形でコンテナの隔離領域を作ることになっています。

例えばこの図ではAとBのコンテナはカーネル自体は共有するのでVMと比べると隔離性は低い。そのかわりコンテナは高速な起動や低オーバーヘッドなどの利点があります。

fig4

最近ではgVisorやKata Containerなど、隔離性の高いコンテナランタイムも開発されてきています。

こうしたVMとコンテナの違いは、ライフサイクルが異なることにもなります。

あくまで個人の見解ですが、VMは数カ月や数年の単位で動かし続けることも多いと思います。900日くらいのアップタイムはみなさんも見たことがあるのではないでしょうか?

一方、コンテナは短いスパンでどんどん作って、消していきます。

VMの場合、なんらかの都合で「このVMは止めないようにしたい」といった要望がよく来たりします。

ただ、コンテナの場合はこの、特定のコンテナを止めない、といったことは極力、極力NGにしてください。

なぜかというと、DockerやKubernetesはコンテナを気軽に止められることで、アプリケーションがすぐに復旧するとか、アップデートしやすい、といったメリットを得られるからです。

こうした特性を殺さないために、Cloud Nativeで最初に考えなければいけないのが、コンテナをいつでも停止できるようにすることを心がけて作るということです。

インフラのコード化がCloud Nativeでどう変わるか

話は少し変わり、大規模なインフラではインフラをコードで管理しなくてはならなくなります。数千台、数万台のサーバを手動で管理するのはちょっと現実的ではないですよね。

インフラのコード化の歴史というかパターンを見ていくと、VMではTerraformでVMプロビジョニングして、ChefやAnsibleでOSやミドルウェアを設定して、Jenkinsでアプリケーションをデプロイしてサービスが提供できるような状態に持っていく、というのがよくあるパターンかと思います。

この場合、すべてを自動化していたとしても、VMの起動からアプリをデプロイするまで数十分。

もうちょっと進んでくると、事前にPackerを使ってNginxなどがあらかじめ入ったVMイメージを作って、あとはアプリをデプロイすればいいだけ、とすると、VMの起動時間は5分くらいになるかもしれません。

結局、VM時代のインフラのコード化は時間がかかったり複数のツールを使うことでハードルが高かったりします。

fig5

これがCloud Nativeでどう変わるか。

DockerやKubernetesでは、基本的にDockerfileを使ってイメージをビルドし、そのイメージを指定したKubernetesのManifestを書くと、アプリケーションが簡単にデリバリできるようになっています。

イメージのビルド時間も最短で1分くらい。デプロイも、数秒から1分くらいでできます。

fig6

Dockerfileいうのは、どういうコンテナイメージにするのか、CentOSやNginxなどと書いておいて、docker buildコマンドでビルドすると簡単にそれらをコンテナイメージにできます。

fig7

イメージを作った後は、どういう状態でデプロイするかを定義したKubernetes Manifestファイルに、デプロイするコンテナイメージとレプリカ数を書いておくと、インスタンスをその数に維持し続けてくれます。

コンテナイメージにはアプリケーションも埋め込むことができます。

fig8

つまり、KubernetesのManifestファイルでデプロイすることは、アプリを新しくデプロイすることと同じになります。

コンテナは高速でスケールアウトできる

これでなにがいいかというと、スケールアウトするときに同じ環境を高速にデプロイ可能になるということです。

VMの場合、起動時間が1分から3分とか。アプリケーションも含めた完全なイメージにしておいてもそれくらいかかります。

コンテナの場合、起動時間は1秒とか5秒とかの単位なので、スケールが非常に速く、すぐにリクエストを返せる。

fig9

さらに、VM時代にはわりとモノリシックなアプリケーションの書き方をすることが多かったと思いますが、コンテナやKubernetesを使うと、マイクロサービスや、マイクロサービスまではいかなくてもロールごとに機能を分けて作られていることが多いので、特定の機能だけを高速に起動してスケールさせることもできます。

CI/CDはCloud Nativeでどう変わるか

こうしてインフラは変化してきましたが、同時にアプリケーション開発者の意識も変えなくてはいけません。

インフラとアプリケーションの境界線は、私はCI/CDだと思っていますが、これがCloud Nativeでどう変わるでしょうか。

従来のVMでは、コードのリポジトリに対して新たにコードがマージされるとCIが走って、バイナリが生成され、それをS3なりどこかに置いて、それを何らかのデプロイツールでVMにデプロイし、アプリを更新することが多かったかと思います。

このとき、S3などファイルの置き場所にファイル名やディレクトリを切ってバージョン番号などの名前を付けるかなと。

fig10

これがKubernetesではどう変わるか。いろんな方法がありますが、一般的に使われている方法として「GitOps」という手法があります。

コードをマージしたらテスト、ビルドが走って、合わせてコンテナのイメージもビルドして、それをDockerレジストリに登録しておきます。

これをKubernetesのManifestファイルでデプロイしますが、Dockerレジストリに登録したどのイメージをデプロイするのかをManifestで定義できるようになっています。

なので、どのイメージをデプロイするかを書いたManifestファイルをManifestのリポジトリに登録し、コミットすることでKubernetesにManifestファイルをデプロイします。

するとManifestファイルに従ってKubernetesが指定されたイメージをデプロイしてくれます。

fig11

こうすることで、Manifestファイルのリポジトリにはインフラの構成ファイルが保存されていくことになります。そこを見れば現在のクラスタの状態が分かる、という仕組みになります。

万が一、Kubernetesクラスタが壊れても、そこのManifestファイルを再び適用することで復旧できます。

では、このようなCI/CDを契機にして、インフラやアプリケーションがどのように更新されるのか、次に紹介しましょう。

Kubernetesにローリングアップデートを任せる

アプリケーションをアップデートする一般的な方法に「ローリングアップデート」があります。

VM時代の手法だと、ロードバランサーの配下にVMが複数あって、手動やスクリプトを使って特定のVMをロードバランサーから外して、アプリケーションを停止して新しいアプリケーションをデプロイし、起動する、とったことをやる必要があります。

このとき、止めようとしているアプリケーションにリクエストが来てないか確認してから停止させるとか、意外と気を使いながら作業します。

うちの会社でも、私が入社したころはまだこういう作業がわりとありました。

fig12

この作業のなにがつらいかというと、 独自のスクリプトを作りがちで、それは誰がメンテしていくんだと。

しかもそのスクリプトは特定のユースケースのために作られたので、更新間隔を変えたいとか、タイムアウトの時にどんな処理をするんだとか、ロールバックをどうするといったことは、だいたいうまくいかないと。

これがKubernetesだと、ぜんぶおまかせできるようになります。

スライドの右にあるManifestにRollingUpdateの設定を登録し、利用するイメージのバージョンを変更し、アプライすると、よしなにローリングアップアップデートしてくれます。

fig13

なぞのスクリプトに出会わなくて済むようになる

私がKubernetesをお勧めする理由には、Kubernetesがデファクトスタンダードになっていることで、いろんな人が組織に入ったり出たりするのにも対応できるし、なぞのスクリプトに出会わなくて済み、業界で統一された手段が用意できるのは大きいかなと思います。

Kubernetesの開発にはいろんな会社や人が参加しているので、細かいさまざまなケースもおおむねカバーされていることもいいところだなと思います。

≫後編に続きます。後編ではKubernetesにおけるIPアドレスの管理、障害復旧などについて解説されます。

あわせて読みたい

Docker Kubernetes クラウド コンテナ型仮想化




タグクラウド

クラウド
AWS / Azure / Google Cloud
クラウドネイティブ / サーバレス
クラウドのシェア / クラウドの障害

コンテナ型仮想化

プログラミング言語
JavaScript / Java / .NET
WebAssembly / Web標準
開発ツール / テスト・品質

アジャイル開発 / スクラム / DevOps

データベース / 機械学習・AI
RDB / NoSQL

ネットワーク / セキュリティ
HTTP / QUIC

OS / Windows / Linux / 仮想化
サーバ / ストレージ / ハードウェア

ITエンジニアの給与・年収 / 働き方

殿堂入り / おもしろ / 編集後記

全てのタグを見る

Blogger in Chief

photo of jniino

Junichi Niino(jniino)
IT系の雑誌編集者、オンラインメディア発行人を経て独立。2009年にPublickeyを開始しました。
詳しいプロフィール

Publickeyの新着情報をチェックしませんか?
Twitterで : @Publickey
Facebookで : Publickeyのページ
RSSリーダーで : Feed

最新記事10本