La programmazione ha subito una rivoluzione negli ultimi anni grazie all'introduzione di strumenti di intelligenza artificiale che aiutano gli sviluppatori a scrivere codice in modo più efficiente e accurato. Uno degli strumenti più promettenti in questo ambito è Llama Coder, il copilota che sfrutta la potenza di Ollama per estendere le capacità dell'IDE Visual Studio Code (VS Code). In questo articolo impareremo a configurarlo e ad usarlo mediante un semplice esempio pratico.

Cos’è un copilota?
Il termine “copilota” deriva dall’aviazione, dove si riferisce al secondo pilota di un aereo, responsabile di assistere il pilota principale nelle operazioni di volo. In modo simile, un copilota nel contesto della programmazione è un assistente intelligente che aiuta gli sviluppatori a scrivere, ottimizzare e correggere il codice. Questo assistente non sostituisce lo sviluppatore, ma lavora al suo fianco per migliorare l’efficienza e ridurre gli errori.
I copiloti sfruttano le tecnologie di intelligenza artificiale per analizzare il codice in tempo reale. Utilizzano i modelli di linguaggio avanzati sono capaci di comprendere il contesto del codice che si sta scrivendo e fornire suggerimenti pertinenti.
Perchè usare Llama Code con Ollama?
Llama Coder offre due vantaggi significativi rispetto ad altri copiloti:
- Gratuito e senza costi di utilizzo: Llama Code è un plugin completamente gratuito che permette di utilizzare i modelli della famiglia Codellama in locale, senza alcun costo aggiuntivo.
- Privacy e sicurezza: Grazie alla sua integrazione con Ollama, Llama Code opera interamente in locale, assicurando che il codice processato non venga inviato a servizi cloud esterni. Questo è particolarmente importante per chi deve garantire alti livelli di sicurezza e protezione dei dati.
Il plugin è inoltre progettato per integrarsi perfettamente con Visual Studio Code, uno degli editor di codice più popolari e potenti. La compatibilità con VS Code significa che gli sviluppatori possono facilmente incorporare Llama Coder nel loro flusso di lavoro quotidiano senza dover cambiare strumenti o abitudini.
Installazione e configurazione
Prima di iniziare con l’installazione di Llama Coder è necessario installare Ollama. A tal proposito è possibile fare riferimento alla nostra guida: Ollama – Guida per eseguire modelli di LLM in locale
Successivamente è possibile installare il plugin Llama Coder cercandolo direttamente dal marketplace di VS Code:

Una volta scaricato, è possibile accedere alle impostazioni del plugin mediante l’icona dell’ingranaggio e poi cliccando sull’opzione “Extension Settings”:

Tra le varie opzioni configurabili la più importante è sicuramente il modello di AI. Di default è impostato il stable-code:3b-code-q4_0
che è molto leggero e richiede appena 3 GB di RAM per essere eseguito. Avendo a disposizione un hardware di buona qualità è possibile testare anche i modelli più evoluti per ottenere risultati migliori.
Una volta selezionato il modello che si desidera usare, se questo non è già stato scaricato in locale in precedenza, all’apertura di un qualsiasi file contenente codice apparirà in basso a destra una notifica che vi chiederà di procedere con il download:

Cliccando su “Yes” partirà il download che potrebbe richiedere un tempo variabile a seconda della connessione internet di cui si dispone. In basso a destra, nella barra di stato di Visual Studio Code, apparirà un’icona indicante che è in corso il download.
Utilizzo di Llama Coder
Al termine del download sarà possibile testare il modello provando a scrivere codice all’interno dell’editor. Se la configurazione è andata a buon fine dovrebbero apparire dei suggerimenti di colore grigio come quelli dell’immagine seguente:

Per accettare il suggerimento e rendere effettiva la modifica sarà necessario cliccare il tasto “TAB”.
Per il test ho usato il modello base che, come si nota dall’esempio, è già abbastanza efficace e può aiutare a risparmiare molto tempo se si impara ad usarlo in maniera corretta. Chiaramente i risultati non sono all’altezza di copiloti enterprise a pagamento (come ad esempio GitHub Copilot) ma se si dispone di un hardware abbastanza potente è possibile ottenere dei risultati molto interessanti.
In sintesi, Llama Code rappresenta un passo avanti significativo nel campo degli strumenti di sviluppo basati sull’intelligenza artificiale. La sua integrazione con VS Code offre agli sviluppatori un copilota dalle buone potenzialità che può migliorare la produttività. Dal momento che provarlo non costa nulla, vi invito a fare un tentativo!