Coding assistito dalla AI in LOCALE (no cloud!) grazie a OLLAMA configurato in DELPHI! (Live Coding)

05/11/2024
delphilive codingcodingaicloud

Coding assistito dalla AI in LOCALE (no cloud!) grazie a OLLAMA configurato in DELPHI! (Live Coding)

Partecipa in diretta alle live! ๐Ÿ‘‰ https://www.twitch.tv/compilaquindiva

Replay live Twitch di martedรฌ 5 novembre 2024: *** CODING AI IN LOCALE GRAZIE A OLLAMA (CODELLAMA) ***

Sapevi che in #Delphi รจ possibile integrare il supporto della #AI in locale, senza bisogno di servizi cloud, grazie a Ollama? Neanche io, fino a poco tempo fa. ๐Ÿ˜… Ma mi hanno detto che si puรฒ fareโ€ฆ

In questa live di coding su Twitch, andremo passo passo a installare e configurare una immagine #Docker custom di #Ollama, preparata da @EmbarcaderoTech , per poter utilizzare questo #LLM allโ€™interno della nostra macchina in locale facendola girare in un container e invocandola dallโ€™IDE di Delphi, senza bisogno di interfacciarci con alcun servizio online in cloud e soprattutto a pagamento!

Grazie a Smart CodeInsight, Delphi puรฒ sfruttare la potenza dellโ€™intelligenza artificiale per aiutarci nel workflow di sviluppo. Lโ€™architettura รจ modulare e supporta vari motori di AI, quelli online e cloud-based forniti da OpenAI, Gemini e Claude, ma รจ anche possibile scaricare e configurare un modello AI per Ollama e farlo girare in locale con Docker, avendo cosรฌ pieno controllo sui dati trasmessi (zero!) e soprattutto sui costi (zero!), senza dipendere da connessioni internet o servizi in cloud di terze parti. Ollama inoltre รจ open-source! ๐Ÿ’ช๐Ÿป

Guarda le mie live ogni settimana sul canale Twitch! ๐Ÿ‘‰ https://www.twitch.tv/compilaquindiva

๐Ÿ“’ CAPITOLI ๐Ÿ“’ 0:00:00 - Sigla iniziale 0:02:35 - Lobby: saluti e benvenuto 0:06:20 - Lobby: pareri su Canva 0:10:00 - Lobby: recap su conferenze 0:29:40 - Intro a Smart CodeInsight in Delphi 0:47:30 - Intro a Ollama (e al modello CodeLlama) 0:52:00 - Installiamo lโ€™immagine Docker 1:19:00 - Creiamo il container di Ollama 1:27:55 - Testiamo se Ollama funziona! 1:32:10 - Proviamo lโ€™AI in Delphi 1:52:05 - Confrontiamo CodeLlama con ChatGPT 2:06:20 - Saluti finali in lobby 2:17:50 - Chiusura live

๐ŸŒ RISORSE E LINK ๐ŸŒ ๐Ÿ‘‰ Ollama: https://ollama.com/ ๐Ÿ‘‰ ITDevCon 2024 Roma: https://www.itdevcon.it/roma ๐Ÿ‘‰ Delphi Day 2024: https://www.delphiday.it ๐Ÿ‘‰ Delphi Community Edition Download: https://www.embarcadero.com/products/delphi/starter/free-download

๐Ÿ”— I MIEI COLLEGAMENTI ๐Ÿ”— ๐Ÿ‘‰ Twitch โ€ข https://www.twitch.tv/compilaquindiva ๐Ÿ‘‰ YouTube โ€ข https://www.youtube.com/@compilaquindiva ๐Ÿ‘‰ LinkedIn โ€ข https://www.linkedin.com/in/marcobreveglieri ๐Ÿ‘‰ Facebook โ€ข https://www.facebook.com/compilaquindiva ๐Ÿ‘‰ Instagram โ€ข https://instagram.com/marcobreveglieri ๐Ÿ‘‰ Twitter โ€ข https://twitter.com/mbreveglieri ๐Ÿ‘‰ Medium โ€ข https://medium.com/@mbreveglieri

๐Ÿ’— SUPPORTAMI ๐Ÿ’— ๐Ÿป Offrimi un caffรจ โ€ข https://www.buymeacoffee.com/brevve ๐Ÿค— Fai una donazione โ€ข https://paypal.me/marcobreveglieri

Guarda la Live

Guarda su YouTube