IBM Cloud Docs
使用 VS Code 開發環境

使用 VS Code 開發環境

適用於火花發動機 穀麩加速火花發動機

VS Code 開發環境是一個基於 Spark 的開發環境,使您能夠在 Spark 引擎上運行的 Spark 叢集上以互動方式編程、調試、提交和測試 Spark 應用程式。

它以 Visual Studio Code 延伸規格提供,您可以將它安裝在本端系統中,以使用 Visual Studio Code來存取 Spark IDE。 減少開發時間並增加可用性。

開始之前

  1. 訂閱 watsonx.data on Cloud。 確保您建立的 Spark 引擎已處於執行狀態。
  2. 安裝 Visual Studio Code的桌面版本。
  3. VS Code Marketplace 安裝 watsonx.data 延伸。
  4. Visual Studio Code marketplace 安裝 Visual Studio Code 延伸規格 Remote-SSH

由於 Spark 實驗室本質上是短暫的,因此您必須定期備份儲存的數據,以防止升級或 Spark master 崩潰期間潛在的資料遺失。

程序

設定 Spark 實驗室

  1. 安裝 watsonx.data 延伸。

    a. 開啟 Visual Studio Code。 按一下 延伸

    b. 從 VS Code Marketplace 瀏覽並找出 watsonx.data 延伸,然後安裝該延伸。

    c. 您也可以在左導覽視窗中看到 watsonx.data 圖示。 按一下圖示。 將開啟歡迎使用IBM watsonx.data擴充視窗。

  2. 歡迎使用IBM watsonx.data擴充視窗中,按一下管理連線。 將開啟管理連線watsonx.data 視窗。

  3. 配置以下詳細資訊之一:

    • JSON 輸入

    • 表單輸入

  4. 若要設定 JSON 輸入,請按一下 JSON 輸入並指定以下詳細資訊:

    • API 金鑰:提供平台 API 金鑰。 若要產生 API 金鑰,請參閱 產生 API 金鑰
    • 連接 JSON:提供來自watsonx.data使用者介面的連接詳細資訊。 為此:
      1. 登入您的watsonx.data頁面。

      2. 從導覽功能表中,按一下「連線資訊」

      3. 點選 VS 代碼。 從 VS Code 連線配置欄位複製配置,並將其用作連接 JSON 欄位值。 有關詳細信息,請參閱 獲取連接信息

  5. 若要設定表單輸入,請按一下表單輸入並指定以下詳細資訊:

    • watsonx.data 控制台的主機位址: 提供 watsonx.data 安裝的主機 IP 位址。 若要擷取主機 IP 位址,請參閱 取得連線資訊
    • 環境類型:選擇 SaaS
    • CRN:watsonx.data實例的實例 CRN。 若要檢索 CRN,請參閱 取得連線資訊
    • 使用者名稱:如果您使用 API 金鑰,則您的電子郵件 ID 或應採用 <Service-id>-<GUID> 格式。 有關產生服務 ID 和 GUID 的更多信息,請參閱 建立服務 ID
    • API 金鑰:提供平台 API 金鑰。 若要產生 API 金鑰,請參閱 產生 API 金鑰
  6. 按一下 Test & Save(測試並儲存 )。Retrieved Spark Clusters 訊息將會顯示。 可用的 Spark 引擎顯示在 WATSONX.DATA:ENGINES 部分。

  7. 建立 Spark 實驗室。

    a. 若要建立新的 Spark 實驗室,請從 WATSONX.DATA:ENGINES 選取所需的 Spark 群集,然後按一下 + 圖示 (新增群集)。 建立 Spark Lab 視窗開啟。 為 Spark 實驗室指定唯一的名稱,並選擇 Spark 版本。 預設的 Spark 版本為 3.5。 如果需要,您可以修改其他可選欄位。

    建立 Spark 實驗室時,預設在 Spark 配置欄位中配置 spark.hadoop.wxd.apikey 參數。

    b. 按一下「重新整理」,即可在左側視窗中看到 Spark 實驗室。 這是用於應用程式開發的專用 Spark 叢集。

    c. 按一下開啟 Spark 實驗視窗,以存取檔案系統、終端機並進行操作。

    c. 在「總覽器」功能表中,您可以檢視檔案系統,您可以在此上傳檔案,並檢視記錄。

    若要刪除已執行的 Spark 實驗室,請將滑鼠停留在watsonx.data左側導覽窗格中 Spark 實驗室的名稱上,然後按一下刪除圖示。

開發 Spark 應用程式

在 Spark 實驗室中開發 Spark 應用程式。 您可以使用下列其中一種方式來使用 Spark 應用程式:

建立您自己的 Python 檔案

  1. 從 Visual Studio Code,按一下 Spark 實驗室。 新視窗即會開啟。

  2. 在新的 Spark lab 視窗中,按一下「新增檔案」。 您會收到一個 New File(新增檔案 )提示,其中包含下列檔案類型:

    • Text File(文字檔案):選取以建立文字檔案。
    • Python File: 選擇建立 應用程式。Python
    • Jupyter Notebook:選取以建立 Jupyter Notebook 檔案。
  3. 選擇 Python File。 開啟新的 .py 檔案。 您可以開始處理 Python 檔案,稍後再儲存。

    您也可以將 Python 應用程式檔案拖曳到 Explorer 頁面。 檔案會在 Visual Studio Code 應用程式的右窗格中開啟。

  4. 在終端機執行下列命令,以執行您的 Python 應用程式。 這會啟動 Python 會話,您可以在終端看到確認訊息。

    python <filename>
    

建立 Jupyter Notebook

  1. 從 Visual Studio Code,按一下 Spark 實驗室。 新視窗即會開啟。

  2. 在新的 Spark 實驗視窗中安裝 Jupyter 延伸,以便與 Jupyter Notebooks 搭配使用。 從新的 Spark lab 視窗中的擴充功能選單,瀏覽 Jupyter (您也可以從 VS Code Marketplace 找到),然後安裝擴充功能。

    請確定您從新的 Spark 實驗室視窗中安裝 Jupyter 擴充套件。

  3. 檔案總管頁面中,按一下新增檔案。 您會收到一個 New File(新增檔案 )提示,其中包含下列檔案類型:

    • Text File(文字檔案):選取以建立文字檔案。
    • Python File: 選擇建立 應用程式。Python
    • Jupyter Notebook:選取以建立 Jupyter Notebook 檔案。

    您也可以透過輸入副檔名為 .ipynb 的檔案名稱來建立新的 Jupyter Notebook 檔案,或是將現有的筆記型電腦拖放到檔案總管頁面。

  4. 選擇 Jupyter Notebook. 開啟新的 .ipynb 檔案。 您可以開始處理 Jupyter Notebook 檔案,稍後再儲存。

  5. 從 Jupyter Notebook 檔案,按一下 Select Kernel(選擇核心 )連結。

  6. 您必須選擇 Python 環境來執行您的檔案。

  7. 選擇包含 conda/envs/python/bin/python 的檔案路徑。

  8. Jupyter Notebook 現在就可以使用了。 您可以撰寫程式碼並逐單元執行它。

儲存檔案時,檔案路徑會自動顯示在另存新檔提示中。 您可以修改路徑或按一下確定儲存。