IBM Cloud Docs
Lavorare con l'ambiente di sviluppo VS Code

Lavorare con l'ambiente di sviluppo VS Code

Si applica a: Motore a scintilla Glutine accelerato Motore a scintilla

L'ambiente di sviluppo VS Code è un ambiente di sviluppo basato su Spark che consente di programmare, debuggare, inviare e testare in modo interattivo le applicazioni Spark su un cluster Spark in esecuzione sul motore Spark.

È disponibile come estensione Visual Studio Code e puoi installarlo nel sistema locale per accedere a Spark IDE utilizzando Visual Studio Code. Riduce il tempo per lo sviluppo e aumenta l'usabilità.

Prima di iniziare

  1. Sottoscrizione di watsonx.data su Cloud. Assicuratevi di aver creato un motore Spark e che sia in esecuzione.
  2. Installare una versione desktop di Visual Studio Code.
  3. Installare l'estensione watsonx.data da VS Code Marketplace.
  4. Installa l'estensione Visual Studio Code, Remote - SS da Visual Studio Code marketplace.

Poiché i laboratori Spark sono di natura effimera, è necessario eseguire periodicamente il backup dei dati memorizzati per evitare una potenziale perdita di dati durante gli aggiornamenti o un crash del master Spark.

Procedura

Impostazione dei laboratori Spark

  1. Installare l'estensione watsonx.data.

    a. Aprire Visual Studio Code. Fare clic su Estensioni.

    b. Cerca l'estensione watsonx.data da VS Code Marketplace e installa l'estensione.

    c. Puoi anche vedere l'icona watsonx.data nella finestra di navigazione a sinistra. Fare clic sull'icona. Si apre la finestra Benvenuto nell'estensione IBM watsonx.data.

  2. Dalla finestra Benvenuto nell'estensione IBM watsonx.data, fare clic su Gestione connessione. Si apre la finestra Gestione connessione watsonx.data.

  3. Configurare uno dei seguenti dettagli:

    • Ingressi JSON

    • Ingressi del modulo

  4. Per configurare gli input JSON, fare clic su Input JSON e specificare i seguenti dettagli:

    • Chiave API: fornire la chiave API della piattaforma. Per generare la chiave API, vedere Generazione della chiave API.
    • Connection JSON: fornire i dettagli della connessione dall'interfaccia utente watsonx.data. Per farlo:
      1. Accedere alla propria pagina watsonx.data.

      2. Dal menu di navigazione, fare clic su Informazioni sulla connessione.

      3. Fare clic su Codice VS. Copiare la configurazione dal campo di configurazione della connessione di VS Code e usarla come valore del campo Connection JSON. Per ulteriori informazioni, vedere Ottenere informazioni sulla connessione.

  5. Per configurare gli input del modulo, fare clic su Input del modulo e specificare i seguenti dettagli:

    • Indirizzo host della console watsonx.data: fornire l'indirizzo IP host dell'installazione watsonx.data. Per recuperare l'indirizzo IP dell'host, vedere Informazioni sulla connessione.
    • Tipo di ambiente: Selezionare SaaS.
    • CRN: il CRN dell'istanza dell'utente watsonx.data. Per recuperare il CRN, vedere Acquisizione di informazioni sulla connessione.
    • Username: Il vostro ID e-mail se state usando la vostra chiave API o dovrebbe essere nel formato <Service-id>-<GUID>. Per ulteriori informazioni sulla generazione di id e GUID del servizio, vedere Creazione di ID di servizio.
    • Chiave API: fornire la chiave API della piattaforma. Per generare la chiave API, vedere Generazione della chiave API.
  6. Fare clic su Test & Save. Viene visualizzato il messaggio Retrieved Spark Clusters. I motori Spark disponibili sono visualizzati nella sezione WATSONX.DATA:ENGINES sezione.

  7. Creare un laboratorio Spark.

    a. Per creare un nuovo laboratorio Spark, dalla sezione WATSONX.DATA:ENGINES selezionare il cluster Spark richiesto e fare clic sull'icona + (Aggiungi cluster). Si apre la finestra Crea laboratorio Spark. Specificare un nome univoco per il laboratorio Spark e selezionare la versione Spark. La versione predefinita di Spark è 3.5. Se necessario, è possibile modificare gli altri campi opzionali.

    Il parametro 'spark.hadoop.wxd.apikey è configurato in modo predefinito nel campo delle configurazioni di Spark durante la creazione del laboratorio Spark.

    b. Fare clic su Aggiorna per vedere il laboratorio Spark nella finestra di sinistra. Questo è il cluster Spark dedicato per lo sviluppo dell'applicazione.

    c. Fate clic per aprire la finestra del laboratorio Spark per accedere al file system, al terminale e lavorare con esso.

    c. Nel menu Explorer è possibile visualizzare il file system, dove è possibile caricare i file, e visualizzare i log.

    Per eliminare un laboratorio Spark già in esecuzione, passate il mouse sul nome del laboratorio Spark nel pannello di navigazione sinistro di watsonx.data e fate clic sull'icona Elimina.

Sviluppo di un'applicazione Spark

Sviluppa un'applicazione Spark nel laboratorio Spark. È possibile lavorare con un'applicazione Spark in uno dei modi seguenti:

Crea il tuo proprio file Python

  1. Da Visual Studio Code, fate clic sul laboratorio Spark. Viene visualizzata una nuova finestra.

  2. Nella nuova finestra del laboratorio Spark, fate clic su Nuovo file. Viene visualizzato un prompt Nuovo file con i seguenti tipi di file:

    • File di testo: selezionare per creare un file di testo.
    • Python File: Selezionare per creare un'applicazione Python.
    • Jupyter Notebook selezionare per creare un file Jupyter Notebook.
  3. Selezionare Python File. Si apre un nuovo file .py. È possibile iniziare a lavorare sul file Python e salvarlo in seguito.

    È anche possibile trascinare il file dell'applicazione Python nella pagina di Explorer. Il file si apre nel riquadro destro dell'applicazione Visual Studio Code.

  4. Eseguite il seguente comando nel terminale per eseguire l'applicazione Python. In questo modo si avvia una sessione Python e si può vedere il messaggio di conferma nel terminale.

    python <filename>
    

Crea notebook Jupyter

  1. Da Visual Studio Code, fate clic sul laboratorio Spark. Viene visualizzata una nuova finestra.

  2. Installate l'estensione Jupyter nella nuova finestra del laboratorio Spark per lavorare con Jupyter Notebooks. Dal menu Estensioni nella nuova finestra del laboratorio Spark, cercate il sito Jupyter (potete anche trovarlo nel Marketplace di VS Code ) e installate l'estensione.

    Assicuratevi di installare l'estensione Jupyter dalla nuova finestra del laboratorio Spark.

  3. Nella pagina Explorer, fare clic su Nuovo file. Viene visualizzato un prompt Nuovo file con i seguenti tipi di file:

    • File di testo: selezionare per creare un file di testo.
    • Python File: Selezionare per creare un'applicazione Python.
    • Jupyter Notebook selezionare per creare un file Jupyter Notebook.

    È anche possibile creare un nuovo file Jupyter Notebook digitando il nome del file con l'estensione .ipynb o trascinando il blocco note esistente nella pagina di Explorer.

  4. Selezionare Jupyter Notebook. Si apre un nuovo file .ipynb. È possibile iniziare a lavorare sul file Jupyter Notebook e salvarlo in seguito.

  5. Dal file Jupyter Notebook, fare clic sul collegamento Seleziona kernel.

  6. È necessario selezionare un ambiente Python per eseguire il file.

  7. Selezionate il percorso del file che contiene conda/envs/python/bin/python.

  8. Jupyter Notebook è ora pronto per l'uso. È possibile scrivere il codice ed eseguirlo cella per cella.

Quando si salva il file, il percorso del file viene visualizzato automaticamente nel prompt Salva con nome. È possibile modificare il percorso o fare clic su OK per salvare.