IETS VOOR JOU?
In deze workshop gaan we op zoek naar het antwoord op een simpele vraag: “Hoe zal het weer morgen zijn in Antwerpen?” Als we die vraag stellen in applicaties zoals ChatGPT, Claude, Gemini enz., krijgen we tegenwoordig (meestal) een accuraat antwoord. Maar hoe werkt dat nu precies? We weten inmiddels allemaal dat die applicaties werken op basis van Large Language Models (LLMs). Wat doet een LLM juist en hoe komt het aan up-to-date informatie over zaken zoals het weerbericht, zonder menselijke interventie? Dat kom je via deze hands-on workshop te weten.
WAT LEER JE?
- Inzicht in de interne werking van Large Language Models (LLM)
- Zelf interageren met een LLM in de programmeertaal Python
- De impact/kracht van (system) prompting
- Het principe van een ReAct Agent
- Zelf een code-agent implementeren in Python met de Huggingface smolagents software bibliotheek
DOELGROEP
Deze workshop is ontworpen voor een breed publiek van professionals met een interesse in de integratie van AI in softwaretoepassingen.
PRAKTISCHE INFORMATIE
Deelnemers brengen een laptop mee. Er wordt gewerkt met vrij beschikbare componenten, geen licenties vereist.