Sie sind hier:
KI-Seminar für Mitarbeitende aus dem IT-Bereich
Zielgruppe
Das Seminar richtet sich an IT-Beschäftigte und technische Fachkräfte im Hochschulumfeld, die ein fundiertes Verständnis für Architektur, Betrieb und Implementierung von KI-Anwendungen aufbauen möchten. Es wendet sich an Teilnehmende mit bestehenden IT-Grundkenntnissen, die für die Konzeption, den Betrieb oder die Weiterentwicklung intelligenter Systeme verantwortlich sind.
Lernziele
Technische Fundierung:
• Verständnis der technischen Funktionsweise von LLMs (Tokenisierung, Embeddings, Transformer-Architekturen)
• Fähigkeit zur Unterscheidung und Bewertung verschiedener RAG-Architekturen (Naive RAG, Graph RAG, hybride Ansätze)
• Kenntnisse zur fundierten Modellauswahl unter Berücksichtigung von Parametern, Quantisierung und Lizenzmodellen (Open Source vs. kommerziell)
Betriebliche Umsetzung:
• Kompetenz zur Einschätzung von Systemlast, Performance-Kennzahlen (TPS, TTFT) und Betriebskosten
• Praktische Fähigkeiten zur Integration von KI über APIs (OpenAI-Standard, lokale APIs)
• Know-how für den eigenständigen Betrieb von Modellen (Hosting-Modelle, Hardware-Bedarf, Performance-Tuning)
Entwicklungspraxis:
• Beherrschung des Entwicklungsprozesses für Chatbots einschließlich Datenaufbereitung, System-Prompting und Qualitätssicherung
• Einblick in konkrete Betriebserfahrungen und Anwendungsszenarien im Hochschulkontext
Themen
Tag 1:
Architektur & Hintergründe – Wie funktioniert KI technisch?
• Grundlagen der KI-Technik: Transformer, Tokens, Embeddings
• RAG-Methoden im Detail: Naive, Advanced und Graph RAG, hybride Suchverfahren
• Modellauswahl & -bewertung: Quantisierungsstrategien, Parametergrößen, Open Source vs. kommerzielle Lösungen
• Systemarchitektur: Lastabschätzung, Kostenanalyse, API-Key-Management und Performance-Metriken (TPS, TTFT)
Tag 2:
Anwendung, Betrieb & Entwicklung – KI praktisch umsetzen
• KI als API & Integration: Anbindung über Standardschnittstellen und lokale APIs
• LLM-Betrieb: Infrastrukturanforderungen, Hosting-Optionen, Hardware-Ressourcen und Performance-Optimierung
• Chatbot-Engineering: Implementierungsprozess von der Datenaufbereitung über Prompt-Engineering bis zur QS
• Praxisbezug: Erfahrungsberichte, konkrete Beispiele aus dem Hochschulumfeld und Diskussion von Implementierungsstrategien
Kurstermine 2
-
Ort / Raum
-
- 1
- Donnerstag, 21. Mai 2026
- 09:00 – 13:00 Uhr
1 Donnerstag 21. Mai 2026 09:00 – 13:00 Uhr -
- 2
- Freitag, 22. Mai 2026
- 09:00 – 13:00 Uhr
2 Freitag 22. Mai 2026 09:00 – 13:00 Uhr
Sie sind hier:
KI-Seminar für Mitarbeitende aus dem IT-Bereich
Zielgruppe
Das Seminar richtet sich an IT-Beschäftigte und technische Fachkräfte im Hochschulumfeld, die ein fundiertes Verständnis für Architektur, Betrieb und Implementierung von KI-Anwendungen aufbauen möchten. Es wendet sich an Teilnehmende mit bestehenden IT-Grundkenntnissen, die für die Konzeption, den Betrieb oder die Weiterentwicklung intelligenter Systeme verantwortlich sind.
Lernziele
Technische Fundierung:
• Verständnis der technischen Funktionsweise von LLMs (Tokenisierung, Embeddings, Transformer-Architekturen)
• Fähigkeit zur Unterscheidung und Bewertung verschiedener RAG-Architekturen (Naive RAG, Graph RAG, hybride Ansätze)
• Kenntnisse zur fundierten Modellauswahl unter Berücksichtigung von Parametern, Quantisierung und Lizenzmodellen (Open Source vs. kommerziell)
Betriebliche Umsetzung:
• Kompetenz zur Einschätzung von Systemlast, Performance-Kennzahlen (TPS, TTFT) und Betriebskosten
• Praktische Fähigkeiten zur Integration von KI über APIs (OpenAI-Standard, lokale APIs)
• Know-how für den eigenständigen Betrieb von Modellen (Hosting-Modelle, Hardware-Bedarf, Performance-Tuning)
Entwicklungspraxis:
• Beherrschung des Entwicklungsprozesses für Chatbots einschließlich Datenaufbereitung, System-Prompting und Qualitätssicherung
• Einblick in konkrete Betriebserfahrungen und Anwendungsszenarien im Hochschulkontext
Themen
Tag 1:
Architektur & Hintergründe – Wie funktioniert KI technisch?
• Grundlagen der KI-Technik: Transformer, Tokens, Embeddings
• RAG-Methoden im Detail: Naive, Advanced und Graph RAG, hybride Suchverfahren
• Modellauswahl & -bewertung: Quantisierungsstrategien, Parametergrößen, Open Source vs. kommerzielle Lösungen
• Systemarchitektur: Lastabschätzung, Kostenanalyse, API-Key-Management und Performance-Metriken (TPS, TTFT)
Tag 2:
Anwendung, Betrieb & Entwicklung – KI praktisch umsetzen
• KI als API & Integration: Anbindung über Standardschnittstellen und lokale APIs
• LLM-Betrieb: Infrastrukturanforderungen, Hosting-Optionen, Hardware-Ressourcen und Performance-Optimierung
• Chatbot-Engineering: Implementierungsprozess von der Datenaufbereitung über Prompt-Engineering bis zur QS
• Praxisbezug: Erfahrungsberichte, konkrete Beispiele aus dem Hochschulumfeld und Diskussion von Implementierungsstrategien
-
- Kursnummer: 208.825
-
StartDo. 21.05.2026
09:00 UhrEndeFr. 22.05.2026
13:00 Uhr -
2 Tage / 8 Ustd.
-
Dozent*in:Malte Dreyer
-
HÜF-NRW OnlineZoom
