databricksがGCPに対応し、Marketplaceから簡単に使い始められるようになりました。
公式ドキュメントDatabricks documentation | Databricks on Google Cloud を参考に、利用開始までの手順を紹介します。
事前準備
- GCPの請求アカウントが必要です。
- クオータの設定が必要です。下記の値がデフォルトから変更が必要となるため、IAMの”割り当て”より割り当てを実施します。
| クオータ名 | 最低限の推奨値 | スケーラビリティが求められる際の推奨値 |
|---|---|---|
| compute.googleapis.com/cpus | 60 | 2500 |
| compute.googleapis.com/n2_cpus | 50 | 300 |
| compute.googleapis.com/ssd_total_storage | 7.5TB | 50TB |

- プロジェクトで必要なAPIを有効にします。「APIとサービス」より下記のAPIが有効化されているか確認、有効化されていない場合は有効化します。
| Google API | API名、設定へのリンク |
|---|---|
| storage.googleapis.com | Cloud Storage API |
| container.googleapis.com | Kubernetes Engine API |
| deploymentmanager.googleapis.com | Cloud Deployment Manager V2 API |
Marketplaceからdatabricksの登録
GCPのMarketplaceより、Databricksを選択します。


登録を完了すると、すぐに使えるようになります。

「プロバイダで管理」から進み、ログイン画面に。

Sign in with Googleより、Googleアカウントでdatabricksにログインします。
Workspaceの作成
ここからはdatabricksの初期設定です
「Create workspace」にて新しくWorkspaceを作成します

- Workspace name: 好きな名前を設定
- Region: databricksのクラスタを起動するリージョンを設定
- Google cloud project ID: GCPのプロジェクトIDを設定
「Save」でWorkspaceを作成します

作成したWorkspaceをopenすると、databricksの画面になります

これで利用できるようになりました。
Clusterを起動しなければ新たな課金は発生しないので、何時でも使えるように準備しておくと良いです
ブログへの記事リクエストはこちらまでどうぞ。










