BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//PYVOBJECT//NONSGML Version 1//EN
BEGIN:VTIMEZONE
TZID:Europe/Berlin
BEGIN:STANDARD
DTSTART:20001029T030000
RRULE:FREQ=YEARLY;BYDAY=-1SU;BYMONTH=10
TZNAME:CET
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
END:STANDARD
BEGIN:DAYLIGHT
DTSTART:20000326T020000
RRULE:FREQ=YEARLY;BYDAY=-1SU;BYMONTH=3
TZNAME:CEST
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
END:DAYLIGHT
END:VTIMEZONE
BEGIN:VEVENT
UID:20260430T104249Z - 79629@740cc3b4d46c
DTSTART;TZID=Europe/Berlin:20260306T100000
DTEND;TZID=Europe/Berlin:20260306T160000
CREATED:20260430T104249Z
DESCRIPTION:<a href="http://www.fablab-bottrop.de/event/llm-server-konfigur
 ation-8/register">LLM Server Konfiguration</a>\nWorkshop: LLM Server Konfi
 guration Du möchtest die volle Kontrolle über deine KI-Anwendungen und d
 eine Daten behalten? In diesem Workshop verlassen wir die Welt der Cloud-A
 bos und schauen uns an\, wie man Large Language Models (LLMs) auf eigener 
 Infrastruktur hostet\, konfiguriert und optimiert. Wir zeigen dir\, wie du
  Open-Source-Modelle lokal oder auf einem Server zum Laufen bringst\, dami
 t du unabhängig von externen Anbietern experimentieren kannst. Die geplan
 ten Themen im Workshop:Hardware-Anforderungen: Was braucht man wirklich? (
 GPU vs. CPU\, VRAM und Co.)Deployment-Frameworks: Einführung in Tools wie
  Ollama\, vLLM oder LocalAI.Modellauswahl & Quantisierung: Wie man die ric
 htige Balance zwischen Modellgröße und Performance findet.API-Bereitstel
 lung: So stellst du dein Modell anderen Anwendungen zur Verfügung.Datensc
 hutz & Sicherheit: Lokales Hosting als Lösung für sensible Daten. Zielgr
 uppe: Dieser Workshop ist für alle geeignet\, die tiefer in die technisch
 e Infrastruktur hinter der KI eintauchen wollen. Grundkenntnisse im Umgang
  mit der Kommandozeile (Terminal/Linux) sind von Vorteil.
DTSTAMP:20260430T104249Z
LOCATION:FabLab Bottrop e.V\, Am Vietshof 2-4\, 46236 Bottrop\, Germany
SUMMARY:LLM Server Konfiguration
END:VEVENT
END:VCALENDAR
