Seite 1 von 1

KI verstehen und clever nutzen

Verfasst: 21.03.2026, 18:31
von Robbie Sandberg
Dieser Thread Dient zum Austausch während unserer Seminarreihe "KI verstehen und clever nutzen" und darüber hinaus. Hier könnt ihr eure Erfahrungen und Fragen teilen.

Detaillierte Übersicht der Seminarinhalte:
Modul 1: Was ist KI? – Grundlagen & Überblick
Inhalte
• Was ist KI? Kurze Geschichte, Begriffe sortieren (ML, Deep Learning, LLM, etc.)
• Wie lernt eine KI? Datensätze, Training, Modelle – anschaulich erklärt
• Klassische Anwendungsfälle: Object Detection (“Was sieht die Kamera?”), Spracherkennung, Übersetzung
• Sprachmodelle (LLMs): Wie funktionieren ChatGPT & Co.? Was passiert, wenn ich etwas eintippe?
• Erste Schritte Prompting: Was ist ein Prompt? Warum ist die Formulierung wichtig? – Klarheit, Ziel, was soll die KI für mich tun?
• Chancen und Risiken der KI: Effizienz, Produktivität vs. Halluzinationen, Probleme
Praxis
• Gemeinsam einen Chatbot ausprobieren (ChatGPT, Gemini)
• Vergleich: gleiche Frage, verschiedene Formulierungen → unterschiedliche Ergebnisse
Takeaway
Grundverständnis: Was KI kann, was sie nicht kann, wie man mit ihr redet, wo Chancen und Risiken liegen.
Modul 2: KI-Tools für blinde und sehbehinderte Menschen
Inhalte
• Be My Eyes / Be My AI: Bildbeschreibung per KI – wie gut ist das wirklich? Wo liegen die großen Chancen für Blinde und was kann schiefgehen?
• Seeing AI / Envision / Google Lookout Vergleich der Apps; welche KI-Funktionen bieten sie? Unterschied zu Be My AI
• KI in Screenreadern: NVDA + Add-ons, JAWS, VoiceOver-Integration, TalkBack-Bildbeschreibung: kurze Einführung, Erfahrungen
• Dokumentenerkennung: klassische OCR vs. KI (z.B. handschriftliche Notizen, Briefe, Verpackungen)
• Mainstream KI-Tools als Hilfsmittel: Live-Erkennung in ChatGPT, Gemini oder Copilot
Praxis
• Vergleich: Foto mit 3 verschiedenen Apps beschreiben lassen
• Use-Case-Runde: Teilnehmende teilen ihre Erfahrungen & Lieblingstools
• Gemeinsam neue Szenarien durchsprechen
• Teilnehmende testen bis zum folgenden Termin und tauschen sich im offSight-Forum aus
Takeaway
Persönliche Tool-Empfehlung: Was passt zu meinem Alltag? Verständnis, was die Tools können und was nicht + wie sie arbeiten. Verständnis, wie man diese Tools mit KI-Wissen effektiver einsetzen kann.
Modul 3: KI-Chatbots bedienen + Datenschutz & Offline-KI
Inhalte
Chatbots blind bedienen - ChatGPT, Gemini, Copilot: Bedienbarkeit mit Screenreader (Web & App) - Welcher Chatbot funktioniert für wen am besten? Ehrlicher Vergleich. - Tastaturnavigation, APIs, alternative Interfaces wie BasiliskLLM - Tipps: Custom Instructions, Systemanweisungen, Memory, Voice Mode * Europäische Alternativenmit mehr Datenschutz: z. B. Mistral Le Chat
Datenschutz & Offline-KI - Was passiert mit meinen Daten? Cloud vs. lokal, Trainings-Opt-out - Offline-KI auf dem eigenen Rechner: Ja, das geht – auch ohne Programmierkenntnisse! - Ollama als Tool kurz vorgestellt: Hier können Technikbegeisterte ohne Programmierkenntnisse experimentieren - Demo: Lokales Modell installieren und nutzen (Schritt für Schritt) - Vor-/Nachteile: Geschwindigkeit, Qualität, Privatsphäre
Praxis
• Gemeinsam ein lokales Modell starten (wer mag)
• Chatbot-Vergleich: gleiche Aufgabe in ChatGPT, Mistral Le Chat, Gemini → Ergebnis vergleichen
Takeaway
Wissen, welcher Chatbot für einen funktioniert – und wie man KI auch offline nutzen kann. Wissen, wie die ChatBots Datenschutz handhaben (Opt-in, Opt.out) und was es mit Modelltraining auf sich hat. Grob wissen, was Custom Instructions und Memory sind.
Modul 4: Eigenen Chatbot bauen + Prompting-Meisterklasse
Inhalte
Prompting für Fortgeschrittene - Prompting-Techniken: Klarheit, Rollen, Kontext, Few-Shot, Chain-of-Thought - System-Prompts: Wie man einer KI eine Persönlichkeit gibt - Prompt-Bibliotheken: Vorlagen für wiederkehrende Aufgaben - Typische Fehler und wie man sie vermeidet – KI-Agenten und der Unterschied zu Chatbots
Eigenen Chatbot bauen - Custom GPTs (OpenAI) oder Gemini Gems: Schritt-für-Schritt-Anleitung - Praxisbeispiel 1: Alternativtext-Generator – Bilder beschreiben nach WCAG-Standards - Praxisbeispiel 2: Alltagstricks-Berater – ein Bot, der sich mit Blindenalltagstipps auskennt - Wissensdatenbank einbinden (Dateien hochladen, die der Bot kennen soll) - Testen, iterieren, verbessern
Praxis
• Wir bauen einen eigenen Mini-Chatbot (mit Anleitung)
• Jeder baut einen eigenen Mini-Chatbot (unterschiedliche Anwendungsfälle) im Nachgang; Austausch in der folgenden Session oder im offSight Forum
Takeaway
Ein eigener, funktionierender Chatbot – und das Know-how, weitere zu bauen.
Modul 5: Kreativ mit KI – Musik, Stimmen, Audio & Bilder
Inhalte
Musikgenerierung - Tools: Suno, Gemini - Musik aus Text erzeugen - Demo: Song erstellen mit eigenem Text (DBSV, Jugendclub, KI-Seminar o. anderes Thema) - Bedienbarkeit & Qualität
KI-Stimmen & Stimmklonen - Text-to-Speech: ElevenLabs, OpenAI TTS, Google Gemini TTS - Eigene Stimme klonen – und in anderen Sprachen sprechen lassen - Wichtiger Kontext: Ethik: Deepfakes, Consent, Kennzeichnung - Demo: Stimmklon live erstellen * Demo bei Interesse: Live-Simultanübersetzung im Google Meet ausprobieren
Audioschnitt & Nachbearbeitung - Auphonic: Automatisches Mastering für Podcasts & Aufnahmen - Bedienbarkeit mit Screenreader - Workflow: Aufnehmen → Auphonic → fertig
Bildgenerierung - Wie funktioniert Bilderstellung? - Klassischere KI-Tools: DALL-E, Midjourney, Stable Diffusion – Überblick - Sinnvolle Anwendungsfälle für blinde Menschen (z.B. Social Media) - Alt-Text für KI-generierte Bilder
Praxis
• Song erzeugen (Suno)
• Stimme klonen (ElevenLabs – wer mag)
• Audio nachbearbeiten (Auphonic)
Takeaway
Kreative KI-Tools kennen und einsetzen können. Spaß gehabt.