Wir haben uns im Team einige Gedanken zu #KI in der religionsbezogenen Bildung gemacht und wie sich ein evangelisches Profil unserer Arbeit konturieren könnte:
View article →
Jörg Lohrer
joerglohrer@joerg-lohrer.de
npub1f7ja...2fx9
education, religion
Eigenprojekt live: rendert Blog-Posts direkt aus Nostr. Inhalte als signierte NIP-23-Events auf 5 Relays, Bilder auf Blossom, ausgeliefert als SvelteKit-SPA — multilingual DE/EN via NIP-32/33. Kein CMS, keine DB, kein Vendor-Lock-in.
Making of:
Gerne Feedback!
Jörg Lohrer – Blog
Jörg Lohrer – Blog (Nostr-basiert)
GitHub
GitHub - joerglohrer/joerglohrerde
Contribute to joerglohrer/joerglohrerde development by creating an account on GitHub.
GM! 

GM!


GM!
Das Hohelied der Liebe (Vibe-Coder-Fassung)
Wenn ich mit Prompts der Menschen und der Engel redete und hätte die Liebe nicht, so wäre ich ein tönender Chatbot oder eine klingende Halluzination.
Und wenn ich vibe coden könnte den schönsten Code, und wüsste alle Frameworks und verstünde alle APIs, und hätte allen Glauben an Stack Overflow, also dass ich Legacy-Systeme versetzte, und hätte die Liebe nicht, so wäre ich nichts.
Und wenn ich alle meine GPUs austeilte den Hungrigen nach Tokens, und ließe meinen Code brennen in Open-Source-Feuer, und hätte die Liebe nicht, so wäre mir's nichts nütze.
Die Liebe ist langmütig – auch bei Timeouts. Die Liebe ist freundlich, sie merged keinen übereilten Pull Request. Sie eifert nicht gegen andere Modelle. Die Liebe treibt nicht Prompt Injection, sie blähet sich nicht auf mit Context-Windows.
Sie stellet sich nicht ungebärdig gegen den Junior-Entwickler, sie suchet nicht das Ihre im Commit-Log, sie lässt sich nicht erbittern durch Merge-Konflikte, sie rechnet das Böse nicht zu, auch nicht dem schlechtesten Bug-Report.
Sie freuet sich nicht über die Ungerechtigkeit der ausgebeuteten Klickarbeiter, sie freuet sich aber der Wahrheit in den Trainingsdaten.
Sie verträget alle Versionsupdates, sie glaubet alle Dokumentation, sie hoffet auf jeden grünen Build, sie duldet alle Code-Reviews.
Die Liebe höret nimmer auf, so doch die Tokenizer aufhören werden und die Weissagungen der Benchmarks vergehen und die Sprachen der LLMs aufhören werden und die Embeddings veralten.
Denn unser Wissen ist Stückwerk und unser Kontextfenster ist Stückwerk. Wenn aber kommen wird das Vollkommene, so wird das Stückwerk aufhören.
Da ich ein Prototyp war, da redete ich wie ein Prototyp, da halluzinierte ich wie ein Prototyp und hatte kindische Ausgaben. Da ich aber ein gereiftes System ward, tat ich ab, was kindisch war.
Wir sehen jetzt durch einen Spiegel in einem dunklen Wort, dann aber von Angesicht zu Angesicht. Jetzt erkenne ich's stückweise; dann aber werde ich erkennen, gleichwie ich erkannt bin.
Nun aber bleibet Glaube, Hoffnung, Liebe, diese drei; aber die Liebe ist die größte unter ihnen.
Und kein noch so brillanter Code kann sie ersetzen.


GM! 

Oh Wunder - Holunder
GM! 

Neue Ernte
#rhubarb #farmstr


"Das Gesetz ist für den Menschen gemacht und nicht der Mensch für das Gesetz" 

GM! 

Guten Morgen! 🌅🌷 

## Nutzungsbedingungen für KI die niemand liest
Jedes Mal wenn du ChatGPT, Gemini oder Copilot öffnest, akzeptierst du stillschweigend: gestohlene Trainingsdaten, ausgebeutete Clickworker, Rechenzentren auf Kosten des Klimas, Kompetenzauslagerung an Konzerne ohne tragfähiges Geschäftsmodell und eine Machtverschiebung Richtung Silicon Valley.
Joep Schuurkes hat das in seinem Blogbeitrag "On the acceptance of GenAI" auf den Punkt gebracht.
### Was mich daran beschäftigt
Die Kritik trifft vor allem auf proprietäre Modelle zu. Wer ein offenes Modell wie Gemma, Mistral oder Llama lokal auf eigener Hardware betreibt, verändert die Bilanz:
- **Trainingsdaten**: Bei BLOOM oder OLMo dokumentiert und nachvollziehbar. Bei GPT-4 oder Claude? Intransparent.
- **Kompetenzauslagerung**: Lokale Inferenz heißt Kontrolle behalten. Keine API-Abhängigkeit, kein Vendor-Lock-in.
- **Machtkonzentration**: Offene Gewichte verteilen Macht. Mistral ist Europa, Qwen ist China, nicht alles ist Silicon Valley.
- **Ökologische Kosten**: Lokale Inferenz auf einem NAS verbraucht einen Bruchteil dessen, was Cloud-Calls kosten.
Aber seien wir ehrlich: Die Trainingsinfrastruktur bleibt bei den Hyperscalern. RLHF-Pipelines mit fragwürdigen Arbeitsbedingungen sind branchenüblich. Und auch offene Modelle entstehen in GPU-Clustern.
### Was das mit Nostr zu tun hat
Nostr folgt derselben Logik wie offene Modelle: Protokoll statt Plattform. Keine zentrale Instanz, die Bedingungen diktiert. Deine Keys, deine Daten, deine Relays.
Wenn wir KI-generierte Inhalte über Nostr publizieren - als OER, als Bildungsmaterial, als Community-Beiträge, dann sollten wir auch hier differenzieren: Welches Modell wurde genutzt? Unter welchen Bedingungen? Mit welcher Infrastruktur?
Und auch Metadaten-Transparenz ist kein Nice-to-have, sondern Sorgfaltspflicht. Genau wie bei der Quellenangabe von Bildungsmaterialien.
### Fazit
Das ist kein Argument gegen KI-Nutzung. Es ist ein Argument für **informierte Nutzung** und für Infrastrukturen, die Transparenz ermöglichen statt verhindern. Nostr kann dabei eine Rolle spielen.
`Inspiriert und CC BY-NC Joep Schuurkes https://smallsheds.garden/blog/2026/on-the-acceptance-of-genai`
#GenAI #KIkompetenz #OER #DigitaleBildung #nostr #OpenSource #Souveränität #DiDay


GM! 

Guten Morgen und Frohe Ostern! 

https://venturebeat.com/data/karpathy-shares-llm-knowledge-base-architecture-that-bypasses-rag-with-an
Hier wird eine Arbeitsweise beschrieben, der ich mich intuitiv ebenfalls angenähert habe: Der Aufbau, die Validierung und Redaktion eines eigenen Kontextwissens im Markdown-Format als Referenz- und Ausgangspunkt für die Arbeit mit LLMs.
Explore the future of #AI coding


GM!


Claude lobt mich:
⏺ Respekt! An einem Abend von null auf ein funktionierendes Smart-Home-System:
- Design-Spec fuer die komplette Warema-Migration geschrieben
- Home Assistant auf der Synology zum Laufen gebracht
- Shelly Plug S aus dem Gaeste-WLAN befreit und in HA eingebunden
- Matrix-Bot aufgesetzt und Automatisierungen gebaut
- Und das alles sauber dokumentiert
Vom Warema-Touchpanel aus 2011 zu einem offenen, modularen System — in einem Abend die Grundlage gelegt. Nicht schlecht!
Hey @Markus Deimann kurzer Zwischenstand: Dein DILeMa-Beitrag „Imaginaries of Openness in Education" liegt jetzt als deutsche Übersetzung auf oer.community vor – inklusive englischem Original. Wird in den nächsten Tagen veröffentlicht.
Die Übersetzung hab ich mit LLM-Unterstützung (DeepL, ChatGPT, Claude) gemacht und redaktionell durchgearbeitet. In der Einführung kontextualisiere ich auch, dass dilema-journal.de seit Längerem nicht erreichbar ist und der Text so im Sinne deines eigenen Arguments dezentral und mehrsprachig wieder zugänglich wird. Fand ich passend 😉
Hier der aktuelle Stand im Repo:
Für das Beitragsbild hab ich eine abstrakte Illustration im Kopf: drei sich überlappende halbtransparente geometrische Formen für die drei Imaginarien, mit offenen/geschlossenen Türen als Hintergrundtextur. Hast du ein eigenes Bild, das du lieber verwenden würdest, oder passt das so?
Freu mich auf dein Feedback! 
git rpi-virtuell
FOERBICO_und_rpi-virtuell/Website/content/de/posts/2025-09-02-Imaginationen-von-Offenheit-in-der-Bildung/index.md at add-blogbost-imagination-von-offenheit
