Commit b20ddc10 authored by Raphael Das Gupta's avatar Raphael Das Gupta
Browse files

Üb 6: Continue to use Databricks runtime 6.4

even though that isn't the pre-selected default anymore.

Databricks runtime 6.4 ist the last one to feature Spark 2.x
Spark 3.x comes with some changes that would require adapting
the exercise notebook:

- pattern language for date formats changed

- `spark.conf.get("spark.sql.files.maxPartitionBytes")` now returns
  '134217728b' instead of just
  '134217728' (The 'b' is Spark's unit indicator for "bytes")
parent 070c9ceb
......@@ -27,9 +27,10 @@ loggen Sie sich auf https://community.cloud.databricks.com/login.html ein.
Klicken Sie im Abschnitt "Common Tasks" in der Databricks-Umgebung
auf "New Cluster".
Die vorausgewählte Databricks Runtime Version
(z.Z. "Runtime: 6.4 (Scala 2.11, Spark 2.4.5)")
können Sie beibehalten.
Öffnen Sie die Auswahl bei "Databricks Runtime Version",
klicken Sie auf den Link "20 more" und wählen Sie
"Runtime: 6.4 (Scala 2.11, Spark 2.4.5)"
aus.
Sobald Sie einen Namen für den neuen Cluster eingegeben haben,
können Sie ihn mit dem "Create Cluster" Knopf oberhalb des Formulars erstellen.
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment