Direkt zum Hauptbereich

Glossar zur KI-Nutzung zum Verbessern von Prozessen

Ein klares Verständnis hilft, dabei KI-Systeme besser zu benutzen und gute Ergebnisse zu erzeugen. Wir empfehlen, jede Interaktion mit einem KI-System mit einer klaren Absicht zu starten. In diesem Beitrag stelle ich die wichtigen Begriffe vor.

Das Wichtigste zuerst: Formulieren von Absichten

KI-Systeme sind elektronische Praktikanten (Ethan Mollick). Sie können bestimmte Dinge gut. Bei anderen machen sie Fehler. Und sie machen meist genau das, was man ihnen sagt. Und wenn das Ergebnis nicht zu den Erwartungen passt, hat man meist seine Absichten falsch mitgeteilt.

Es gibt eine Reihe guter Glossare zum Thema KI, z. B.: 

In Ergänzung zu den bisher bekannten KI-Begriffen wie Sprachmodell oder Kontextfenster möchte ich drei neue, wesentliche Begriffe definieren: Absicht, Absichtskompression, intentionale Kette.

Warum definiere ich diese Begriffe? Ich komme akademisch gesehen aus einer erkenntnistheoretischen Tradition, die mit Ernst Mach verbunden ist. Ich wurde so ausgebildet, die Gestalten von wichtigen Begriffen zu erkennen und die Grenzen auszutesten. Gestalten sind mentale Modelle. Dadurch kann ich Probleme schneller erkennen und zielgerichteter lösen. Die Diskussion um KI ist mir in manchen Teilen zu technisch, was Menschen davon abhält, sich mit KI-Systemen zu beschäftigen. Ich glaube, dass KI eine Antwort auf die Wissensexplosion der letzten Jahre ist. KI ist eine Schlüsseltechnologie, um mit dem Wissen, das uns zur Verfügung steht, zu interagieren. Beim Erstellen dieser Liste und Klären der Begriffe hat mir natürlich mein elektronischer Praktikant gut geholfen.

Schauen wir uns diese Begriffe unten genauer an. 

Wichtige Begriffe zur Nutzung von KI-Systemen im Überblick

Können wir unsere Absichten mittteilen? 

Der wichtigste Begriff für den Umgang mit KI-Systemen ist der Begriff der Absicht. Alles andere leitet sich daraus ab. Prompting bedeutet, seine Absicht so gut mitzuteilen, dass die Nachrichten oder Antworten aus einem KI-System zur Wirkung passen, die die Anwender:innen in ihrem eigentlichen Geschäftsprozess oder in ihrem konkreten Vorgang erreichen wollen. 

Eine Absicht ist etwas anderes als ein Auftrag. Ein Auftrag wird von außen erteilt. Die Absicht ist das, was die Anwender:innen denken. 

Absichten entstehen, wenn Anwender:innen einen Vorgang bearbeiten oder eine Aufgabe erledigen. 

Das TÜV-AI-Lab hat eine Taxonomie für den Einsatz von KI-Systemen veröffentlicht. Dort wurden Aufgabenkategorien zusammengetragen, die als Grundlagen für Absichten genutzt werden können:

  • Gruppieren (Clustering): aus den Eingabedaten Gruppen mit ähnlichen Elementen bilden
  • Zukünftige Zustände vorhersagen (Future State Prediction): Aus den Eingabedaten des aktuellen Zustands einen oder mehrere zukünftige Zustände ableiten
  • Etwas identifizieren (Identification): aus den Eingabedaten Elemente finden, die zu bestimmten Bewertungskriterien passen
  • Etwas bezeichnen (Labelling): Bezeichnungen für die Eingabedaten finden oder zuordnen
  • Etwas ordnen (Ranking): die Eingabedaten gemäß Bewertungskriterien in eine Reihenfolge bringen
  • Zusammenhänge quantitativ beschreiben (Regression): aus den Eingabedaten Beziehungen ableiten und numerisch beschreiben
  • Etwas suchen (Retrieval): Aus den Eingabedaten und einem Suchraum Elemente heraussuchen, ohne die Eingabedaten wesentlich zu verändern
  • Segmentieren (Segmentation): die Eingabedaten in kleinere sinnvolle Einheiten unterteilen
  • Inhalte erzeugen (Generation-Creation): auf Basis der Eingabedaten etwas Neues erzeugen
  • Inhalte umwandeln (Generation-Transformation): die Basisdaten in etwas anderes umwandeln.

Das NIST hat eine andere Liste von Aktivitäten erstellt, die Menschen mit einem KI-System ausführen:

  • Content creation
  • Content synthesis
  • Decision making
  • Detection
  • Digital assistance
  • Discovery
  • Image analysis
  • Information retrieval/search
  • Monitoring
  • Performance improvement
  • Personalization
  • Prediction
  • Process automation
  • Recommendation
  • Robotic automation
  • Vehicular automation

Vielleicht helfen diese Listen, um unsere Absichten besser zu formulieren.  

Bei einer Absicht spielen unser implizites und explizites Wissen (tacit knowing) eine wichtige Rolle. Vom ungarischen Philosophen und Naturwissenschaftler Michael Polanyi stammt der Satz: "Wir wissen mehr, als wir zu sagen vermögen." Im Umgang mit KI-Systemen müssen wir uns wieder daran erinnern, welches Wissen eigentlich mit unserer Absicht verbunden ist.

Daraus leiten sich drei Fehlerquellen ab. Wenn die Anwender:innen aus der Interaktion mit einem KI-System nicht die Nachrichten bekommen, die zu Fortschritt im Prozess oder Vorgang führt, könnte es an folgenden Ursachen liegen:

  • Die Anwender:innen verstehen den Prozess oder Vorgang und damit die Ziele des Prozesses oder des konkreten Vorgangs nicht.
  • Die Anwender:innen haben andere Annahmen über den Prozess oder Vorgang. Sie formulieren eine falsche Absicht.
  • Die Anwender:innen können ihre Absicht nicht ausdrücken. Ihr Prompt führt zu falschen Ergebnissen. 

Jede Nachricht, mit der ein KI-System auf einen Prompt antwortet, wird von den Anwender:innen bewertet: "Hilft mir die Antwort dabei, im Prozess oder konkreten Vorgang voran zu kommen?". Sie schätzen die Wirkung ab. Nach jeder Nachricht entscheiden die Anwender:innen, ob sie weiter mit dem KI-System interagieren oder ob sie die Nachricht als Ergebnis nehmen, um ihre eigentliche Arbeit zu erledigen.

Verbunden mit dem Formulieren von Absichten ist die Auftragstaktik von Scharnhorst, Clausewitz und Moltke.

Wir komprimieren Absichten

Anwender:innen verfolgen ein ökonomisches Ziel beim Benutzen von KI-Systemen. Sie wollen in einem Prompt mit möglichst wenig Worten ihre Absicht ausdrücken. Daher haben sich schon verschiedene Techniken zur Absichtskompression etabliert:

  • Beispiele mitliefern, die das KI-System kennt.
  • Rollen beschreiben.
  • Kontext mitgeben.
  • Metaphern, Analogien oder Vergleiche mitliefern.
  • Einen Wissensvorrat im System anlegen (Systemprompt, Projekt/Custom-GPT).
  • Fähigkeiten (Skills) beschreiben, die später genutzt werden können.

Beim Komprimieren geht es immer darum, explizites Wissen mit der eigenen Absicht zu verknüpfen.

Wir verketten Absichten

Beim Bearbeiten eines konkreten Vorgangs gibt es nicht eine, sondern mehrere Absichten. Es entsteht eine Kette von Absichten, die man meist vom Ergebnis her zurück aufbaut. 

Beispielvorgang: Video erstellen.

Intentionale Kette:

  • Am Ende steht ein fertiges Video. 
  • Davor brauche ich für das Video Videoschnipsel, die ich zusammen schneide.
  • Davor brauche ich Videos, die aus Standbildern animiert werden.
  • Davor brauche ich Bilder, die sich aus einem Text ableiten.
  • Davor brauche ich eine Audiospur, die den Text spricht. 
  • Davor brauche ich Texte über mein Thema, die passend zusammengefasst werden.
  • Davor brauche ich Recherchematerial, aus dem ich meine Texte zum Sprechen und für die Bilder ableite.

Im Unterschied zu einem festen Workflow ist eine intentionale Kette explorativ. Im Workflow weiß die Maschine, was als Nächtes zu tun ist. In der Absichtskette kann das Ergebnis aus einer Interaktion die Absicht für die nächste Interaktion verändern. Bei einem Workflow führt man aus, was man weiß. Bei einer intentionalen Kette findet man heraus, was man eigentlich wissen will. Wenn man eine Kette häufig genug durchgegangen ist, kann man später daraus einen Workflow bauen.

Den Begriff der intentionalen Kette habe ich von Franz Reuleaux's kinematischer Kette abgeleitet.

KI-Begriffe in einer logischen Reihenfolge

KI-Begriffe in alphabetischer Reihenfolge

Absicht:
Beschreibt, was jemand erreichen will — nicht wie er es erreichen will. Eine Absicht ist kleinteilig und flüchtig. Bei der Nutzung von KI-Systemen teilt man immer eine Absicht mit. Siehe auch: Intention.
Absichtsdelegation:
Übergabe einer Absicht zur Ausführung an ein System, das dann selbständig handelt. Siehe auch: Agent.
Absichtskompression:
Die Kunst, mit möglichst wenigen Worten möglichst viel von der eigenen Absicht zu kommunizieren. Ein gutes Wort kann tausend Erklärungen ersetzen — wenn beide Seiten dasselbe darunter verstehen. Kontext, Rolle und Beispiel sind Techniken der Absichtskompression: Sie übertragen eine Absicht effizient, ohne jeden Schritt einzeln erklären zu müssen.
Agent:
Ein KI-System, dem man eine Absicht übergibt und das dann selbständig handelt — über mehrere Schritte und Werkzeuge, ohne dass der Mensch jeden Schritt begleiten muss. Siehe auch: Elektronischer Praktikant, Absichtsdelegation.
Beispiel:
Zeigt dem KI-System das gewünschte Ergebnis direkter als jede Beschreibung. Überträgt implizites Wissen über das Ziel, das sich schwer in Worte fassen lässt. Eine Technik der Absichtskompression.
Bewertung:
Beurteilung einer Nachricht durch einen Menschen oder ein System: Erfüllt diese Nachricht die Absicht hinreichend? Die Bewertung führt zu einer Entscheidung über die Interaktion — entweder wird die Iteration fortgesetzt oder ein Ergebnis akzeptiert.
Cynefin:
Ein Framework von Dave Snowden, das Probleme in verschiedene Domänen einteilt — vereinfacht: klar, kompliziert, komplex, chaotisch. Jede Domäne braucht andere Herangehensweisen und andere Prompts. In der einfachen Domäne funktionieren klare Rezepte. In der komplexen Domäne kann KI beim Erkunden helfen, aber nicht entscheiden.
Elektronischer Praktikant:
Analogie für ein KI-System (Mollick). Man muss dem Praktikanten erklären, was man will, seine Arbeit prüfen — er macht Fehler, ist aber schnell und lernwillig. Setzt realistische Erwartungen: weder Überschätzung noch Unterschätzung.
Ergebnis:
Eine Nachricht aus einem KI-System, die bewertet wurde und bei der ein Mensch oder ein System zu dem Schluss kommt: Diese Nachricht erfüllt die Absicht hinreichend. Das Ergebnis ist kein technischer Begriff, sondern ein Urteil. Da implizites Wissen sich nie vollständig explizieren lässt, ist ein Ergebnis immer eine Annäherung an die Absicht — nie eine vollständige Erfüllung.
Halluzination:
KI-Modelle können Informationen erfinden, die plausibel klingen, aber falsch sind. Halluzination entsteht, wenn das Modell eine Absicht falsch interpretiert oder wenn das nötige Wissen im Modell fehlt. Wer das nicht weiß, baut ein falsches Vertrauen auf. Nachrichten müssen kritisch geprüft werden.
Intention:
Siehe: Absicht.
Intentionale Kette:
Beschreibt die Struktur, durch die eine menschliche Absicht in eine Wirkung im Prozess umgewandelt wird — analog zur kinematischen Kette von Franz Reuleaux, die die Struktur der Bewegungsübertragung in Maschinen beschreibt, unabhängig von der Energiequelle. Die Kette lautet: Intention → Prompt → Modell → Nachricht → Bewertung → Ergebnis → Nutzungsentscheidung → Wirkung im Prozess. Die Kette endet nie mit vollständiger Erfüllung der Absicht — weil implizites Wissen sich prinzipiell nicht vollständig explizieren lässt. Das ist keine technische Schwäche der KI, sondern eine erkenntnistheoretische Grenze.
Interaktion:
Jeder Austausch von Nachrichten mit einem KI-System — unabhängig vom Ziel, unabhängig vom Ergebnis. Eine Interaktion kann manuell (der Mensch tippt), iterativ (der Mensch verfeinert schrittweise) oder automatisch (ein Agent sendet Nachrichten ohne menschliches Zutun) sein. Sie kann aus einer einzigen Nachricht bestehen oder aus hundert. Das Kontextfenster begrenzt, wie viel der bisherigen Interaktion das Modell noch berücksichtigen kann — wenn das Fenster voll ist, nimmt die Qualität der Nachrichten schleichend ab.
Iteration:
Eine zielgerichtete Form der Interaktion. Man tauscht Nachrichten aus, um sich schrittweise einem Ergebnis zu nähern — durch Nachfragen, Präzisieren, Korrigieren. Iteration ist kein Zeichen von Scheitern, sondern das normale Arbeiten mit KI, weil implizites Wissen sich nie vollständig in einem einzigen Prompt ausdrücken lässt.
Jagged Frontier:
Siehe: Kompetenzgrenze, gezackt.
KI-System:
Die Gesamtheit der Komponenten, die zusammenwirken, damit eine menschliche Absicht durch KI verarbeitet werden kann. Umfasst mindestens: das Modell, die Benutzeroberfläche (z.B. Claude, ChatGPT, Copilot) und den Kontext. In komplexeren Systemen kommen Werkzeuge (Websuche, Kalender, Datenbanken) und Speicher (persistente Informationen über mehrere Interaktionen) hinzu. Technische Grenzen: maximale Nachrichtenlänge (harte Grenze) und Kontextfenster (weiche Grenze).
Kompetenzgrenze, gezackt:
KI hat keine gleichmäßige Kompetenzgrenze, sondern eine gezackte (englisch: Jagged Frontier, Mollick) — in manchen Bereichen überraschend gut (besser als Experten), in anderen überraschend schlecht. Das ist nicht intuitiv vorhersehbar und erfordert differenziertes Urteilsvermögen statt pauschaler Bewertung.
Kontext:
Was muss das KI-System über meine Situation wissen, um gut zu antworten? Füllt die Lücke zwischen dem, was das Modell bereits weiß, und dem, was es für diese spezifische Situation wissen muss. Eine Technik der Absichtskompression.
Kontextfenster:
Der Arbeitsbereich eines Modells für eine laufende Interaktion. Alles darin kann das Modell berücksichtigen — was außerhalb liegt, wird nicht mehr beachtet. Das Kontextfenster ist eine weiche Grenze: Die Interaktion läuft weiter, aber die Qualität der Nachrichten nimmt schleichend ab, weil ältere Inhalte aus dem Blickfeld fallen.
LLM:
Large Language Model. Siehe: Sprachmodell.
Modell:
Der rechnerische Kern eines KI-Systems — der Teil, der Eingaben verarbeitet und Nachrichten erzeugt. Entsteht durch einen Trainingsprozess, bei dem ein System aus großen Datenmengen Muster lernt. Für den Arbeitsalltag relevant: Sprachmodelle (LLM/SLM) für Text, Bildmodelle für Bilder, multimodale Modelle für mehrere Eingabearten gleichzeitig. Alle Modelle haben einen Wissensstand mit Stichtag, eine maximale Nachrichtenlänge, ein Kontextfenster — und können halluzinieren.
Nachricht:
Ein einzelnes Glied der Kommunikation mit einem KI-System — ein Prompt, eine Antwort oder ein Systemprompt. Jede Nachricht hat eine maximale Länge, die durch das Modell begrenzt wird. Siehe auch: Nachrichtenlänge.
Nachrichtenlänge:
Jede Nachricht hat eine maximale Länge, die durch das Modell begrenzt wird. Die maximale Nachrichtenlänge ist eine harte Grenze — zu lange Nachrichten werden abgeschnitten.
Nutzungsentscheidung:
Voraussetzung dafür, dass ein Mensch oder ein Agent ein Ergebnis aufgreift und damit außerhalb des KI-Systems eine Wirkung im Prozess erzielt. Die Nutzungsentscheidung liegt beim Menschen — außer bei vollautomatischen Agenten.
Projekt:
In KI-Tools wie Claude ein persistenter Kontext — ein Ort, wo Absichten, Hintergrundwissen und Rezepte dauerhaft gespeichert werden. Man muss nicht jedes Mal neu erklären, wer man ist und was man tut. Eine Möglichkeit der Absichtskompression auf Organisationsebene.
Prompt:
Die sprachliche Form einer Absicht. Das, was man dem KI-System schreibt oder sagt, um eine Nachricht zu erhalten. Die Qualität des Prompts bestimmt maßgeblich die Qualität der Nachrichten. Ein Prompt ist selbst eine Nachricht — aber eine mit besonderer Funktion: Er trägt die Absicht.
Prompt-Library:
Eine Sammlung bewährter Rezepte. Wer seine besten Prompts systematisch sammelt und pflegt, spart Zeit und vergisst weniger. Organisationswissen, das dem ganzen Team zur Verfügung steht.
Prozess:
Ein Prozess beschreibt den idealtypischen Ablauf einer Gruppe ähnlicher Vorgänge. Er ist allgemein, wo der Vorgang konkret ist. Ein Prozess definiert, welche Schritte typischerweise durchlaufen werden, welche Ergebnisse erwartet werden und welche Absichten dabei regelmäßig auftauchen. Für die KI-Nutzung ist der Prozess der natürliche Ort für Rezepte und Prompt-Libraries. Wer einen Prozess gut kennt, weiß, welche Absichten immer wiederkehren — und kann dafür bewährte Prompts entwickeln und teilen. Prozesswissen ist deshalb eine wichtige Voraussetzung für systematische KI-Nutzung: Je besser ein Team seinen Prozess versteht, desto gezielter kann es KI einsetzen. Es gibt strategische Prozesse, die die Zukunft einer Organisation sichern, Kernprozesse, mit denen eine Organisation ihre Hauptaufgaben erfüllt, und unterstützende Prozesse, die die Kernprozesse ermöglichen. KI kann in allen drei Arten eingesetzt werden — aber mit unterschiedlichen Absichten und unterschiedlichen Risiken. In komplexen oder strategischen Prozessen ist besondere Vorsicht geboten, weil Halluzinationen dort größeren Schaden anrichten können.
RAG:
Retrieval Augmented Generation. Externes Wissen, das zur Laufzeit abgerufen und dem Modell zur Verfügung gestellt wird — z.B. aus Dokumenten oder Datenbanken. Ergänzt das trainierte Wissen des Modells um aktuelle oder spezifische Informationen.
Rezept:
Ein bewährter, wiederverwendbarer Prompt für eine wiederkehrende Absicht. Zentraler Begriff für die Systematisierung von KI-Nutzung. Anders als ein Programm — das vollständig, eindeutig und fehlerfrei sein muss — lässt ein Rezept Interpretationsspielraum und setzt Hintergrundwissen voraus. KI versteht Rezepte, weil sie das implizite Wissen mitbringt, das beim Programm der Programmierer einbauen müsste.
Rolle:
Eine Rollenangabe wie "Du bist ein erfahrener Verwaltungsjurist" aktiviert im Modell ein ganzes implizites Wissenspaket — Sprache, Denkweise, Prioritäten, typische Probleme. Effizienter als alles einzeln zu erklären. Eine Technik der Absichtskompression.
SLM:
Small Language Model. Siehe: Sprachmodell.
Sprachmodell:
Ein Modell, das auf großen Textmengen trainiert wurde und Sprache versteht und erzeugt. Im Training werden Eingaben mit guten Antworten verknüpft, woraus das System Wahrscheinlichkeiten für Antwortbausteine ableitet. Sprachmodelle sind die häufigste Modellart im Büroalltag. Große Sprachmodelle heißen LLM (Large Language Model), kleinere und spezialisierte SLM (Small Language Model). Siehe auch: Modell, Halluzination, Kontextfenster.
Systeminteraktion:
Siehe: Interaktion.
Vorgang:
Ein Vorgang ist eine konkrete, abgrenzbare Arbeitseinheit — er startet mit einem Auslöser und endet mit einem Ergebnis oder einem erreichten Ziel. Ein Vorgang ist immer spezifisch: ein bestimmtes Objekt, ein bestimmter Zeitraum, eine bestimmte Person. Für die KI-Nutzung ist der Vorgang die natürliche Einheit, in der Absichten entstehen. Wer einen Vorgang bearbeitet, hat konkrete Fragen, konkrete Entscheidungen und konkrete Ergebnisse zu liefern — und genau dort entstehen die Absichten, die mit KI unterstützt werden können. Ein Vorgang gibt der Absicht ihren Kontext: Worum geht es? Was soll am Ende da sein? Wer ist beteiligt? Die Qualität der KI-Nutzung hängt deshalb stark davon ab, ob der Bearbeiter seinen Vorgang versteht. Wer nicht weiß, was der Vorgang erreichen soll, wird auch keine guten Absichten formulieren — und damit keine guten Prompts.
Wirkung im Prozess:
Der Moment, wo das Ergebnis der intentionalen Kette auf die reale Welt trifft — wo es in einem Vorgang eingesetzt wird und etwas verändert. Ein Ergebnis ist zunächst nur Text. Es wird zur Wirkung, wenn ein Mensch oder ein System es aufgreift und damit handelt. Die Wirkung liegt außerhalb des KI-Systems — sie liegt beim Menschen und beim Prozess.
Wissen, explizit:
Wissen, das sich in Worte fassen, aufschreiben und übertragen lässt. Explizites Wissen kann direkt in Prompts eingebracht werden. Siehe auch: Wissen, implizit.
Wissen, implizit:
Wissen, das durch Erfahrung und Intuition erworben wurde, ohne dass es sich vollständig ausdrücken lässt (Polanyi: "Wir wissen mehr, als wir sagen können"). Implizites Wissen ist die wichtigste Quelle für Unvollständigkeit in der intentionalen Kette — ein Ergebnis ist immer eine Annäherung, nie eine vollständige Erfüllung der Absicht. Siehe auch: Wissen, explizit.
Wissensbasis:
Die Menge des Wissens, auf die über KI-Systeme zugegriffen werden kann. Umfasst das trainierte Wissen des Modells (mit Stichtag), per RAG abgerufenes externes Wissen sowie den im Prompt mitgegebenen Kontext. Ohne ausreichende Wissensbasis kann kein sinnvolles Ergebnis entstehen.
Ziel:
Ergibt sich aus einem Prozess oder Vorgang — es beschreibt, was am Ende erreicht sein soll. Ein Ziel ist objektiv und prozessdefiniert: Es gilt unabhängig davon, wer den Vorgang bearbeitet. Der Unterschied zur Absicht ist entscheidend: Ein Ziel beschreibt das Soll des Prozesses. Eine Absicht beschreibt, was der Bearbeiter tatsächlich erreichen will. Im besten Fall sind beide kongruent. 

Stand des Glossars: 16.04.2026

Kommentare

Beliebte Posts aus diesem Blog

Die Profi-Tools im Windows-Explorer

Haben Sie bei der Urlaubsvertretung sich manches Mal geärgert, wenn Sie Dateien gesucht haben, die ein Teammitglied abgelegt hat? Die Suche im Explorer funktioniert tadellos, aber manchmal sollte man den Suchbegriff noch ein bisschen genauer fassen können. Z.B. mit UND oder ODER oder NICHT... Das geht so einfach, dann man von alleine kaum drauf kommt:

Die besten Bücher zum Thema Teamleistung

Es gibt viele Bücher, die sich mit Teams beschäftigen. Doch wo sollen wir anfangen? In diesem Artikel stelle ich die wichtigsten Quellen vor.

Warum du als Führungskraft klügere Mitarbeiter einstellen solltest (und Mikromanagement dein größter Fehler ist)

Es ist einer der am häufigsten zitierten Führungsratschläge: Umgib dich mit Menschen, die klüger sind als du. Und einer der am seltensten wirklich befolgten. Warum? Weil er sich leichter sagt, als er sich anfühlt.

Das Ubongo Flow Game

Spiele bieten eine gute Gelegenheit, zeitliche Erfahrungen zu verdichten und gemeinsam zu lernen. Karl Scotland und Sallyann Freudenberg haben im Mai 2014 das Lego Flow Game veröffentlicht. Wir haben die Spielidee übernommen, aber das Spielmaterial gewechselt. Statt Legosteinen benutzen wir Material aus Grzegorz Rejchtmans Ubongo-Spiel. Hier präsentieren wir die Anleitung für das Ubongo Flow Game.

Microsoft Teams: Die neuen Besprechungsnotizen - Loop-Komponenten

  Haben Sie in letzter Zeit in einer Teams-Besprechung die Notizen geöffnet? Dort sind inzwischen die Loop-Komponenten hinterlegt. Die sind zwar etwas nützlicher als das, was zuvor zur Verfügung stand. Trotzdem ist noch Luft nach oben. Und es gibt sogar einige ernstzunehmende Stolperfallen. Hier ein erster, kritischer Blick auf das was Sie damit tun können. Und auch darauf, was Sie besser sein lassen.

Kategorien in Outlook - für das Team nutzen

Kennen Sie die Kategorien in Outlook? Nutzen Sie diese? Wenn ja wofür? Wenn ich diese Fragen im Seminar stelle, sehe ich oft hochgezogene Augenbrauen. Kaum jemand weiß, was man eigentlich mit diesen Kategorien machen kann und wofür sie nützlich sind. Dieser Blogartikel stellt sie Ihnen vor.

Coaching- und Führungsframeworks im Überblick: 21 Linsen für Teams und Organisationen

Gute Scrum Master:innen und Coaches betrachten das Geschehen durch mehr als eine Brille oder Linse. Jede Linse gibt andere Hinweise für angemessene Interventionen. Im Prinzip suchen wir immer nach der kleinsten Intervention mit der größten Wirkung. Aber welche Linsen gibt es eigenlich? In diesem längeren Beitrag stelle ich die wichtigsten 21 Konzepte von 37 Autor:innen vor, die mir bei der Recherche begegnet sind.

Pragmatisch oder nur “Quick and Dirty”?

“Wir müssen aber pragmatisch vorgehen”, drängt der Kollege. Hm… Im Wörterbuch finde ich für “pragmatisch” in etwa: sachbezogenes, praktisches Handeln. Klingt gut. Leider zeigt sich in meinen Erfahrungen, dass pragmatisch für viele doch eher “quick and dirty” bedeutet. Es soll schnell fertig werden. Aber auf welche oder wessen Kosten? Wo ist die Grenze? Warum steht “praktisch” im Konflikt mit einem langfristigen “Nützlich”? Muss das sein?

High Performance Teams: 10 Prinzipien, die Spitzenteams von innen heraus stark machen

Manche Teams liefern konstant Spitzenleistung, nicht weil sie aus lauter Ausnahmetalenten bestehen, sondern weil sie Prinzipien verinnerlicht haben und danach arbeiten. Sie finden schneller gemeinsame Richtung, erholen sich als Einheit von Rückschlägen und wachsen an Herausforderungen, anstatt an ihnen zu zerbrechen. Was steckt dahinter? Kein Geheimrezept, sondern eine Handvoll Prinzipien, die High Performance Teams konsequent leben: im Umgang miteinander, in der Art wie sie lernen, Entscheidungen treffen und mit Druck umgehen. Die folgenden zehn Prinzipien dienen als Orientierung für Teams, die nicht nur irgendwie gut funktionieren wollen, sondern wirklich gemeinsam stark sein wollen. 

Und jetzt alle zusammen! Teams - OneNote - Aufgaben - To Do

Ein Meeting jagt das nächste. Sich da nicht zu verzetteln, wird  im Zeitalter virtueller Besprechungen  noch anspruchsvoller. Kein Wunder, dass  im Zusammenhang mit Microsoft 365  zwei Fragen besonders häufig auftauchen: Wie dokumentiert man Besprechungen gut? Was hilft, offene Aufgaben nachzuhalten? Eine gute Lösung: Das in MS Teams integrierte OneNote-Notizbuch als gemeinsame Plattform auch für den Aufgabenüberblick zu nutzen.