Es ist ein seltsames Phänomen, das ich beim Programmieren mit KI immer wieder beobachte. Ich sitze ruhig da, arbeite konzentriert, lasse mir Code generieren – und plötzlich kippt etwas. Ich werde ungeduldig, gereizt und manchmal sogar richtig wütend. Ich merke, wie ich innerlich anfange, die KI anzufahren. Ich denke Dinge wie: „Das ist kompletter Unsinn“ oder „Das kann doch nicht so schwer sein“. Und obwohl ich genau weiß, dass das keinen Sinn ergibt – die KI fühlt nichts, sie versteht keine Aggression – passiert es trotzdem. Gerade beim Programmieren ist das besonders stark. Wenn ich Texte schreibe oder Ideen entwickle, bleibt das meist entspannt, aber beim Code wird es schnell emotional. Und genau das hat mich neugierig gemacht.
Programmieren mit KI als psychologisches Experiment
Ich habe irgendwann verstanden, dass das kein technisches Problem ist, sondern ein psychologisches. Die KI ist für mich kein klassisches Tool mehr, sondern ein Denkwerkzeug. Ich gebe ihr Struktur, sie gibt mir etwas zurück, das fast passt – aber eben nicht ganz. Und genau dieses „fast richtig“ ist der Punkt, an dem es kippt. Ich muss Dinge debuggen, die ich nicht selbst geschrieben habe, und Annahmen rekonstruieren, die ich nie explizit gemacht habe. Gleichzeitig habe ich den Anspruch, dass es eigentlich schnell und sauber funktionieren sollte. Das erzeugt eine Mischung aus Kontrollverlust und Erwartungsbruch, und genau daraus entsteht die emotionale Reaktion.
Mein Bully-and-Attack-Modus
Was ich dabei beobachte, lässt sich sehr gut mit einem Modell aus der Schematherapie beschreiben. Ich falle in einen Modus, den man dort als „Bully-and-Attack“ bezeichnet. Das ist ein Zustand, in dem ich angreifend, abwertend und ungeduldig werde. Ein Modus, der darauf abzielt, Druck auszuüben und Kontrolle zurückzugewinnen – auch wenn das objektiv keinen Sinn ergibt. Das Absurde daran ist offensichtlich: Ich versuche, Druck auf etwas auszuüben, das gar nicht darauf reagieren kann. Aber subjektiv fühlt es sich in dem Moment logisch an, als würde ich das Problem lösen, indem ich es attackiere. Und genau hier wird es interessant, denn das hat nichts mit der KI zu tun. Das bin ich.
Der Moment der Awareness
Der entscheidende Punkt ist für mich nicht, diesen Modus komplett zu vermeiden. Das funktioniert ohnehin nicht zuverlässig. Der entscheidende Punkt ist, ihn zu erkennen. In dem Moment, in dem ich merke: „Ich bin gerade im Bully-and-Attack-Modus“, passiert etwas Wichtiges. Ich bin nicht mehr vollständig darin gefangen, sondern habe wieder einen kleinen Abstand. Und genau dieser Abstand ist der Hebel, weil er mir ermöglicht, bewusst zu entscheiden, wie ich weiterarbeite.
Zurück in den Gesunden Erwachsenen
Aus der Schematherapie kommt auch die Gegenposition zu diesem Modus: der Gesunde Erwachsene. Wenn ich es schaffe, aus dem Attack-Modus wieder in diesen Zustand zurückzukommen, verändert sich sofort mein Verhalten. Ich werde ruhiger, präziser und klarer. Ich frage mich nicht mehr, warum die KI „so schlecht“ ist, sondern was genau ich unklar formuliert habe. Ich zerlege das Problem wieder in kleinere Schritte und beginne, strukturiert zu denken, statt emotional zu reagieren. Und plötzlich funktioniert die Zusammenarbeit wieder. Das ist kein Zufall, sondern genau der Zustand, in dem ich als Entwickler am besten arbeite.
Warum das beim Code so eskaliert
Mir ist auch klar geworden, warum das gerade beim Programmieren so stark auftritt. Code ist kompromisslos. Entweder er funktioniert oder er funktioniert nicht, es gibt kaum Grauzonen. Während ich bei Texten mit Unschärfen leben kann, blockiert mich schlechter Code sofort. Das erhöht den Druck, und unter Druck greifen genau die Muster, die ich eigentlich nicht haben will. Die KI verstärkt das zusätzlich, weil sie oft Dinge produziert, die sehr nah dran sind, aber eben nicht korrekt. Dieses „fast richtig“ zwingt mich, mich intensiver damit auseinanderzusetzen, als wenn etwas komplett falsch wäre.
Was das über mich als Entwickler aussagt
Die vielleicht wichtigste Erkenntnis für mich ist: Dieses Verhalten ist nicht neu, die KI macht es nur sichtbar. Der Bully-and-Attack-Modus ist ein Muster, das ich unter Frust aktiviere, und die KI ist ein perfekter Trigger dafür, weil sie mich permanent in genau diese Grenzsituationen bringt. Wenn ich das ernst nehme, ist das kein nerviges Nebenprodukt, sondern eine Trainingssituation. Ich lerne hier nicht nur, besser mit KI zu arbeiten, sondern mich selbst besser zu steuern.
Programmieren als Selbstführung
Für mich ist Programmieren mit KI mittlerweile auch eine Form von Selbstführung geworden. Ich beobachte mich, erkenne meine Zustände und übe, bewusst in einen funktionalen Modus zurückzukehren. Das ist keine theoretische Übung, sondern hat direkte Auswirkungen auf meine Arbeit. Ich schreibe bessere Prompts, denke klarer, mache weniger Fehler und komme schneller zu funktionierenden Lösungen.
Fazit
Was mich am meisten überrascht hat, ist nicht, dass KI manchmal nervt, sondern wie stark sie meine eigenen Muster sichtbar macht. Programmieren mit KI ist für mich nicht mehr nur ein technischer Prozess, sondern ein Spiegel. Und wenn ich diesen Spiegel ernst nehme, werde ich nicht nur ein besserer Entwickler. Ich werde ruhiger, klarer und effektiver in dem, was ich tue.
Ich werde in letzter Zeit immer wieder gefragt, wie ich eigentlich mit der aktuellen Weltlage klarkomme. Es wirkt auf viele so, als würde mich das erstaunlich wenig mitnehmen. Während in meinem Umfeld Menschen wirklich belastet sind von politischen Entwicklungen, von Kriegen, von wirtschaftlichen Unsicherheiten – Stichworte wie die Trump-Regierung, Konflikte im Iran oder steigende Preise reichen oft schon, um Stress auszulösen – bleibe ich vergleichsweise ruhig. Und ich verstehe diese Reaktion sehr gut, weil ich das selbst auch kenne. Das war bei mir lange Zeit nicht anders.
Es war nicht immer so
Ich kenne dieses Gefühl, dass die Welt „reinhaut“. Dass Nachrichten nicht nur Informationen sind, sondern emotional wirken. Dass man sich gedanklich festbeißt, Szenarien durchspielt, sich sorgt, sich ärgert und am Ende erschöpft ist, ohne irgendetwas verändert zu haben. Gerade wenn man sich für Zusammenhänge interessiert und Dinge verstehen will, kann das schnell kippen. Dann wird aus Interesse Grübelei, und aus Grübelei wird Belastung.
Was sich bei mir verändert hat
Der Unterschied heute ist für mich nicht, dass die Welt einfacher geworden wäre. Im Gegenteil. Der Unterschied ist, dass ich heute einen tragfähigen Sinnzusammenhang habe. Ich verwende bewusst dieses Wort, angelehnt an Martin Heidegger und seinen Begriff des Bewandtniszusammenhangs. „Purpose“ trifft es nicht ganz, weil es nicht nur um ein Ziel geht, sondern um ein Gefüge von Bedeutungen, in dem mein Handeln eingebettet ist.
Ich habe eine klare Vorstellung davon, was ich tue, was ich die nächsten Wochen, das nächste Jahr und auch langfristig aufbauen will. Ich weiß, was mir wichtig ist, welche Werte ich habe und was ich brauche, damit es mir gut geht. Und ich gestalte mein Leben aktiv danach. Dieser Zusammenhang ist nicht abstrakt, sondern konkret und handlungsleitend. Er gibt meinem Alltag Struktur und Richtung.
Die Schwerkraft des Sinns
Was ich dabei beobachte, ist, dass dieser Sinnzusammenhang eine eigene Schwerkraft hat. Er zieht mich immer wieder zurück in das, was für mich relevant ist. Wenn ich mich mit Nachrichten beschäftige oder mit globalen Entwicklungen, dann tue ich das bewusst und begrenzt. Ich informiere mich, ich denke darüber nach, ich ordne es ein – aber ich bleibe nicht darin hängen. Irgendwann lässt mich diese „Schwerkraft“ wieder losziehen in meine eigenen Themen.
Das bedeutet nicht, dass mir die Welt egal ist. Im Gegenteil. Ich nehme sie ernst, aber ich verliere mich nicht mehr in ihr. Ich unterscheide klar zwischen dem, was ich beeinflussen kann, und dem, was außerhalb meines Handlungsspielraums liegt. Und ich entscheide mich aktiv, meine Energie dort einzusetzen, wo sie Wirkung hat.
Warum Grübelei weniger wird
Früher war es oft so, dass ich mich an Problemen festgebissen habe, für die ich keine echte Handlungsperspektive hatte. Das erzeugt ein Gefühl von Ohnmacht, und genau das ist psychisch belastend. Heute passiert das deutlich seltener, weil mein Fokus klarer ist. Ich habe genug eigene Projekte, Ziele und Verantwortungsbereiche, die meine Aufmerksamkeit binden. Dadurch entsteht weniger Raum für endlose Gedankenschleifen über Dinge, die ich ohnehin nicht verändern kann.
Das ist kein Zufall
Mir ist wichtig zu betonen, dass das kein Zufall ist und auch keine Persönlichkeitseigenschaft im Sinne von „ich bin halt so“. Das ist das Ergebnis von bewusster Arbeit. Sich einen tragfähigen Sinnzusammenhang aufzubauen, passiert nicht nebenbei. Es bedeutet, sich mit den eigenen Werten auseinanderzusetzen, Entscheidungen zu treffen und Verantwortung für die eigene Lebensgestaltung zu übernehmen.
Fazit
Die Welt ist nicht weniger komplex oder weniger problematisch geworden. Aber mein Verhältnis zu ihr hat sich verändert. Ich lasse mich nicht mehr dauerhaft in Probleme hineinziehen, für die ich keine Lösung habe. Stattdessen orientiere ich mich an dem, was für mich sinnvoll ist und worauf ich Einfluss nehmen kann. Dieser Sinnzusammenhang gibt mir Stabilität. Und genau deshalb stresst mich die Welt heute deutlich weniger als früher.
Es gibt eine ganz bestimmte Art von Situation, die ich lange vor mir hergeschoben habe: Gespräche, in denen ich etwas ablehnen muss. Eine Absage formulieren, jemanden enttäuschen, Grenzen setzen – und dabei gleichzeitig fair, klar und respektvoll bleiben. Das sind genau die Momente, in denen ich merke, dass ich innerlich ins Schwimmen komme. Ich will niemanden vor den Kopf stoßen, ich will nichts kaputt machen, und gleichzeitig weiß ich, dass ich eigentlich „nein“ sagen müsste. Genau in solchen Situationen habe ich angefangen, KI als Denkwerkzeug zu nutzen – aber nicht so, wie man es intuitiv machen würde.
Warum „Schreib mir eine Absage“ nicht funktioniert
Der erste Impuls ist oft naheliegend: Ich gebe der KI die Aufgabe, mir einfach eine Absage zu formulieren. Aber genau das ist der falsche Ansatz. Denn ein schwieriges Gespräch ist kein Textproblem, sondern ein Denkproblem. Wenn ich die Situation selbst nicht klar verstanden habe, wird auch die beste Formulierung nichts retten. Ich merke dann schnell, dass solche generierten Texte entweder zu weich sind, zu hart oder einfach nicht wirklich passen. Sie fühlen sich nicht nach mir an, weil sie nicht aus meiner eigenen Klarheit entstanden sind.
Der aristotelische Zugang: wohlberaten handeln
Was mir an der Stelle wirklich geholfen hat, ist ein Gedanke aus der Nikomachischen Ethik von Aristoteles. Dort geht es darum, dass gutes Handeln nicht einfach spontan entsteht, sondern dass man sich „wohlberaten“ der Sache nähert. Das bedeutet: Ich nehme mir Zeit, die Situation wirklich zu durchdenken, verschiedene Perspektiven zu betrachten und eine Entscheidung bewusst vorzubereiten. Genau hier wird die KI für mich interessant, weil sie mir helfen kann, diesen Beratungsprozess strukturiert zu führen.
KI als Sparringspartner statt Textgenerator
Ich nutze die KI nicht mehr, um mir fertige Antworten geben zu lassen, sondern als Sparringspartner. Ich beschreibe die Situation abstrahiert, ohne persönliche Details, und arbeite mich Schritt für Schritt durch die Fragen: Was ist eigentlich mein Ziel? Was sind meine echten Gründe für die Absage? Welche Interessen hat die andere Person? Wo liegt mein Konflikt? Die KI hilft mir dabei, diese Punkte zu sortieren, blinde Flecken zu erkennen und meine Gedanken zu präzisieren. Dadurch entsteht nicht einfach ein Text, sondern eine innere Klarheit. Und erst aus dieser Klarheit heraus formuliere ich dann selbst, was ich sagen will.
Datenschutz: Wie ich sensibel damit umgehe
Ein wichtiger Punkt dabei ist für mich der Umgang mit Daten. Wenn ich solche Gespräche vorbereite, geht es oft um persönliche oder berufliche Kontexte, und da will ich nicht leichtfertig Informationen preisgeben. Deshalb halte ich mich an ein paar einfache Prinzipien: Ich verwende keine Klarnamen, keine konkreten Firmennamen und keine identifizierbaren Details. Stattdessen abstrahiere ich die Situation so, dass sie strukturell gleich bleibt, aber keine Rückschlüsse auf reale Personen möglich sind. Das funktioniert erstaunlich gut, weil es für den Denkprozess ohnehin nicht auf die konkreten Namen ankommt, sondern auf die Dynamik der Situation.
Realismus und Grenzen
Natürlich ist mir bewusst, dass das keine perfekte Lösung ist. Selbst wenn ich keine sensiblen Daten eingebe, arbeite ich immer noch mit einem Account, der mir zugeordnet werden kann. Auch wenn es sich um europäische Anbieter handelt und Datenschutz eine Rolle spielt, bleibt ein Restrisiko. Langfristig wird es bessere Lösungen geben müssen, bei denen solche Prozesse wirklich anonym oder lokal stattfinden können. Ich arbeite selbst an so etwas, aber das ist noch nicht so weit, dass ich es hier sinnvoll einsetzen würde. Für den Moment geht es mir darum, bewusst und verantwortungsvoll mit den bestehenden Möglichkeiten umzugehen.
Der eigentliche Nutzen
Was sich für mich verändert hat, ist nicht nur die Qualität meiner Gespräche, sondern meine Haltung dazu. Ich gehe nicht mehr unvorbereitet oder aus einem diffusen Gefühl heraus in solche Situationen. Ich nehme mir vorher die Zeit, mich wohlberaten der Sache zu nähern. Die KI hilft mir dabei, meine Gedanken zu ordnen, aber die Entscheidung und die Verantwortung bleiben bei mir. Und genau das ist der entscheidende Punkt: Ich delegiere nicht die Kommunikation, sondern ich verbessere mein Denken.
Fazit
Ein schwieriges Gespräch lässt sich nicht outsourcen. Aber ich kann den Prozess, der zu diesem Gespräch führt, deutlich verbessern. Wenn ich KI als Sparringspartner nutze und nicht als Ersatz für meine eigene Klarheit, dann entsteht etwas sehr Wertvolles. Ich werde ruhiger, strukturierter und sicherer in dem, was ich sagen will. Und am Ende führe ich das Gespräch immer noch selbst – aber deutlich besser vorbereitet.
Ich kenne das von mir selbst sehr gut: Wenn mich jemand fragt, was ich nicht will, kommt die Antwort sofort. Ohne Nachdenken. Glasklar. Ich kann präzise beschreiben, was mich nervt, was mich erschöpft, was für mich nicht funktioniert. Aber wenn ich gefragt werde, was ich stattdessen will, wird es plötzlich vage. Unscharf. Oder ich merke, dass ich eigentlich gar keine richtige Antwort habe.
Und dann kommt schnell dieser gut gemeinte Rat: „Formuliere es doch einfach positiv.“ Sag nicht, was du nicht willst, sondern was du willst. Klingt logisch. Fast trivial. Als wäre das nur eine sprachliche Umkehrung.
Ist es aber nicht.
Das Negative ist real – das Positive noch nicht
Der entscheidende Unterschied ist für mich: Das, was ich nicht will, existiert bereits. Ich habe es erlebt. Es ist konkret, greifbar, mit Emotionen aufgeladen. Der Job, der mich auslaugt. Die Situation, die sich falsch anfühlt. Das Gespräch, das mich frustriert. Das sind lebendige Erinnerungen. Ich habe dafür empirische Daten.
Das, was ich stattdessen will, existiert dagegen oft noch gar nicht. Ich habe es nicht erlebt. Es ist nicht einfach abrufbar. Ich muss es erst erzeugen. Und zwar aus dem Nichts.
Das ist der erste Grund, warum es so schwer ist.
Es gibt nicht „die“ positive Umkehrung
Dazu kommt etwas Zweites, das ich lange unterschätzt habe: Es gibt fast nie die eine klare Umkehrung von dem, was ich nicht will.
Wenn ich sage: „Ich will nicht geblendet werden“, ist die Lösung nicht einfach „das Gegenteil“. Bedeutet das Dunkelheit? Bedeutet das, dass ich die Augen schließe? Bedeutet das gedämpftes Licht? Es gibt unzählige Möglichkeiten, die alle „nicht das“ sind – aber völlig unterschiedlich.
Das heißt: Wenn ich gefragt werde, was ich will, muss ich nicht nur etwas formulieren. Ich muss auswählen. Ich muss aus vielen möglichen Alternativen eine herausgreifen, die für mich tatsächlich passt.
Und genau das macht die Frage komplex.
Mir fehlt die Erfahrung für das Neue
Der dritte Punkt ist für mich der entscheidende: Für das, was ich nicht will, habe ich Erfahrung. Ich habe es ausprobiert. Ich habe gemerkt: Das funktioniert nicht für mich.
Für das, was ich stattdessen will, habe ich diese Erfahrung nicht. Selbst wenn ich eine Idee habe, weiß ich nicht, ob sie wirklich funktioniert. Ich habe keine empirischen Daten. Kein Experiment, das mir zeigt: Das fühlt sich gut an, das passt.
Ich bewege mich also in einem Raum aus Möglichkeiten, ohne klare Rückmeldung. Und das erzeugt Unsicherheit.
„Was brauchst du?“ ist eine anspruchsvolle Frage
Wenn ich das zusammennehme, wird klar, warum Fragen wie „Was brauchst du?“ oder „Was müsste sein, damit es okay ist?“ so schwer zu beantworten sind.
Ich soll etwas benennen, das noch nicht existiert. Ich soll aus vielen Möglichkeiten auswählen. Und ich soll mich dabei auf etwas festlegen, von dem ich nicht einmal weiß, ob es funktioniert.
Das ist nicht einfach eine Umformulierung. Das ist eine echte Denkleistung.
Warum ich aufhören sollte, mich dafür zu kritisieren
Für mich hat das eine wichtige Konsequenz: Ich gehe anders mit mir um, wenn ich in solchen Situationen ins Stocken gerate.
Früher hätte ich schnell gedacht: „Ich weiß einfach nicht, was ich will.“ Oder: „Ich muss meine Bedürfnisse besser kennen.“ Und ja, da ist ein Teil Wahrheit drin. Es ist wichtig, die eigenen Bedürfnisse zu verstehen.
Aber selbst wenn ich das gut kann, bleiben diese strukturellen Schwierigkeiten bestehen. Das Problem ist nicht nur in mir. Die Aufgabe an sich ist anspruchsvoll.
Und das gilt nicht nur für mich, sondern auch für andere.
Fazit
Es ist leicht zu sagen, wovon ich weg will. Das habe ich erlebt, das kenne ich, das ist klar. Es ist deutlich schwerer zu sagen, wo ich hin will. Nicht, weil ich unfähig bin, sondern weil das Ziel noch nicht existiert, weil es viele Möglichkeiten gibt und weil mir die Erfahrung fehlt, um es sicher zu beurteilen.
Wenn ich das verstehe, kann ich großzügiger werden – mit mir selbst und mit anderen. Und ich kann anerkennen, dass der Weg von „weg von hier“ zu „da hin“ nicht einfach eine Umformulierung ist, sondern ein echter kreativer Prozess.
Es ist ein seltsames Phänomen, das ich beim Programmieren mit KI immer wieder beobachte. Ich sitze ruhig da, arbeite konzentriert, lasse mir Code generieren – und plötzlich kippt etwas. Ich werde ungeduldig, gereizt und manchmal sogar richtig wütend. Ich merke, wie ich innerlich anfange, die KI anzufahren. Ich denke Dinge wie: „Das ist kompletter Unsinn“ oder „Das kann doch nicht so schwer sein“. Und obwohl ich genau weiß, dass das keinen Sinn ergibt – die KI fühlt nichts, sie versteht keine Aggression – passiert es trotzdem. Gerade beim Programmieren ist das besonders stark. Wenn ich Texte schreibe oder Ideen entwickle, bleibt das meist entspannt, aber beim Code wird es schnell emotional. Und genau das hat mich neugierig gemacht.
Programmieren mit KI als psychologisches Experiment
Ich habe irgendwann verstanden, dass das kein technisches Problem ist, sondern ein psychologisches. Die KI ist für mich kein klassisches Tool mehr, sondern ein Denkwerkzeug. Ich gebe ihr Struktur, sie gibt mir etwas zurück, das fast passt – aber eben nicht ganz. Und genau dieses „fast richtig“ ist der Punkt, an dem es kippt. Ich muss Dinge debuggen, die ich nicht selbst geschrieben habe, und Annahmen rekonstruieren, die ich nie explizit gemacht habe. Gleichzeitig habe ich den Anspruch, dass es eigentlich schnell und sauber funktionieren sollte. Das erzeugt eine Mischung aus Kontrollverlust und Erwartungsbruch, und genau daraus entsteht die emotionale Reaktion.
Mein Bully-and-Attack-Modus
Was ich dabei beobachte, lässt sich sehr gut mit einem Modell aus der Schematherapie beschreiben. Ich falle in einen Modus, den man dort als „Bully-and-Attack“ bezeichnet. Das ist ein Zustand, in dem ich angreifend, abwertend und ungeduldig werde. Ein Modus, der darauf abzielt, Druck auszuüben und Kontrolle zurückzugewinnen – auch wenn das objektiv keinen Sinn ergibt. Das Absurde daran ist offensichtlich: Ich versuche, Druck auf etwas auszuüben, das gar nicht darauf reagieren kann. Aber subjektiv fühlt es sich in dem Moment logisch an, als würde ich das Problem lösen, indem ich es attackiere. Und genau hier wird es interessant, denn das hat nichts mit der KI zu tun. Das bin ich.
Der Moment der Awareness
Der entscheidende Punkt ist für mich nicht, diesen Modus komplett zu vermeiden. Das funktioniert ohnehin nicht zuverlässig. Der entscheidende Punkt ist, ihn zu erkennen. In dem Moment, in dem ich merke: „Ich bin gerade im Bully-and-Attack-Modus“, passiert etwas Wichtiges. Ich bin nicht mehr vollständig darin gefangen, sondern habe wieder einen kleinen Abstand. Und genau dieser Abstand ist der Hebel, weil er mir ermöglicht, bewusst zu entscheiden, wie ich weiterarbeite.
Zurück in den Gesunden Erwachsenen
Aus der Schematherapie kommt auch die Gegenposition zu diesem Modus: der Gesunde Erwachsene. Wenn ich es schaffe, aus dem Attack-Modus wieder in diesen Zustand zurückzukommen, verändert sich sofort mein Verhalten. Ich werde ruhiger, präziser und klarer. Ich frage mich nicht mehr, warum die KI „so schlecht“ ist, sondern was genau ich unklar formuliert habe. Ich zerlege das Problem wieder in kleinere Schritte und beginne, strukturiert zu denken, statt emotional zu reagieren. Und plötzlich funktioniert die Zusammenarbeit wieder. Das ist kein Zufall, sondern genau der Zustand, in dem ich als Entwickler am besten arbeite.
Warum das beim Code so eskaliert
Mir ist auch klar geworden, warum das gerade beim Programmieren so stark auftritt. Code ist kompromisslos. Entweder er funktioniert oder er funktioniert nicht, es gibt kaum Grauzonen. Während ich bei Texten mit Unschärfen leben kann, blockiert mich schlechter Code sofort. Das erhöht den Druck, und unter Druck greifen genau die Muster, die ich eigentlich nicht haben will. Die KI verstärkt das zusätzlich, weil sie oft Dinge produziert, die sehr nah dran sind, aber eben nicht korrekt. Dieses „fast richtig“ zwingt mich, mich intensiver damit auseinanderzusetzen, als wenn etwas komplett falsch wäre.
Was das über mich als Entwickler aussagt
Die vielleicht wichtigste Erkenntnis für mich ist: Dieses Verhalten ist nicht neu, die KI macht es nur sichtbar. Der Bully-and-Attack-Modus ist ein Muster, das ich unter Frust aktiviere, und die KI ist ein perfekter Trigger dafür, weil sie mich permanent in genau diese Grenzsituationen bringt. Wenn ich das ernst nehme, ist das kein nerviges Nebenprodukt, sondern eine Trainingssituation. Ich lerne hier nicht nur, besser mit KI zu arbeiten, sondern mich selbst besser zu steuern.
Programmieren als Selbstführung
Für mich ist Programmieren mit KI mittlerweile auch eine Form von Selbstführung geworden. Ich beobachte mich, erkenne meine Zustände und übe, bewusst in einen funktionalen Modus zurückzukehren. Das ist keine theoretische Übung, sondern hat direkte Auswirkungen auf meine Arbeit. Ich schreibe bessere Prompts, denke klarer, mache weniger Fehler und komme schneller zu funktionierenden Lösungen.
Fazit
Was mich am meisten überrascht hat, ist nicht, dass KI manchmal nervt, sondern wie stark sie meine eigenen Muster sichtbar macht. Programmieren mit KI ist für mich nicht mehr nur ein technischer Prozess, sondern ein Spiegel. Und wenn ich diesen Spiegel ernst nehme, werde ich nicht nur ein besserer Entwickler. Ich werde ruhiger, klarer und effektiver in dem, was ich tue.
Ich werde in letzter Zeit immer wieder gefragt, wie ich eigentlich mit der aktuellen Weltlage klarkomme. Es wirkt auf viele so, als würde mich das erstaunlich wenig mitnehmen. Während in meinem Umfeld Menschen wirklich belastet sind von politischen Entwicklungen, von Kriegen, von wirtschaftlichen Unsicherheiten – Stichworte wie die Trump-Regierung, Konflikte im Iran oder steigende Preise reichen oft schon, um Stress auszulösen – bleibe ich vergleichsweise ruhig. Und ich verstehe diese Reaktion sehr gut, weil ich das selbst auch kenne. Das war bei mir lange Zeit nicht anders.
Es war nicht immer so
Ich kenne dieses Gefühl, dass die Welt „reinhaut“. Dass Nachrichten nicht nur Informationen sind, sondern emotional wirken. Dass man sich gedanklich festbeißt, Szenarien durchspielt, sich sorgt, sich ärgert und am Ende erschöpft ist, ohne irgendetwas verändert zu haben. Gerade wenn man sich für Zusammenhänge interessiert und Dinge verstehen will, kann das schnell kippen. Dann wird aus Interesse Grübelei, und aus Grübelei wird Belastung.
Was sich bei mir verändert hat
Der Unterschied heute ist für mich nicht, dass die Welt einfacher geworden wäre. Im Gegenteil. Der Unterschied ist, dass ich heute einen tragfähigen Sinnzusammenhang habe. Ich verwende bewusst dieses Wort, angelehnt an Martin Heidegger und seinen Begriff des Bewandtniszusammenhangs. „Purpose“ trifft es nicht ganz, weil es nicht nur um ein Ziel geht, sondern um ein Gefüge von Bedeutungen, in dem mein Handeln eingebettet ist.
Ich habe eine klare Vorstellung davon, was ich tue, was ich die nächsten Wochen, das nächste Jahr und auch langfristig aufbauen will. Ich weiß, was mir wichtig ist, welche Werte ich habe und was ich brauche, damit es mir gut geht. Und ich gestalte mein Leben aktiv danach. Dieser Zusammenhang ist nicht abstrakt, sondern konkret und handlungsleitend. Er gibt meinem Alltag Struktur und Richtung.
Die Schwerkraft des Sinns
Was ich dabei beobachte, ist, dass dieser Sinnzusammenhang eine eigene Schwerkraft hat. Er zieht mich immer wieder zurück in das, was für mich relevant ist. Wenn ich mich mit Nachrichten beschäftige oder mit globalen Entwicklungen, dann tue ich das bewusst und begrenzt. Ich informiere mich, ich denke darüber nach, ich ordne es ein – aber ich bleibe nicht darin hängen. Irgendwann lässt mich diese „Schwerkraft“ wieder losziehen in meine eigenen Themen.
Das bedeutet nicht, dass mir die Welt egal ist. Im Gegenteil. Ich nehme sie ernst, aber ich verliere mich nicht mehr in ihr. Ich unterscheide klar zwischen dem, was ich beeinflussen kann, und dem, was außerhalb meines Handlungsspielraums liegt. Und ich entscheide mich aktiv, meine Energie dort einzusetzen, wo sie Wirkung hat.
Warum Grübelei weniger wird
Früher war es oft so, dass ich mich an Problemen festgebissen habe, für die ich keine echte Handlungsperspektive hatte. Das erzeugt ein Gefühl von Ohnmacht, und genau das ist psychisch belastend. Heute passiert das deutlich seltener, weil mein Fokus klarer ist. Ich habe genug eigene Projekte, Ziele und Verantwortungsbereiche, die meine Aufmerksamkeit binden. Dadurch entsteht weniger Raum für endlose Gedankenschleifen über Dinge, die ich ohnehin nicht verändern kann.
Das ist kein Zufall
Mir ist wichtig zu betonen, dass das kein Zufall ist und auch keine Persönlichkeitseigenschaft im Sinne von „ich bin halt so“. Das ist das Ergebnis von bewusster Arbeit. Sich einen tragfähigen Sinnzusammenhang aufzubauen, passiert nicht nebenbei. Es bedeutet, sich mit den eigenen Werten auseinanderzusetzen, Entscheidungen zu treffen und Verantwortung für die eigene Lebensgestaltung zu übernehmen.
Fazit
Die Welt ist nicht weniger komplex oder weniger problematisch geworden. Aber mein Verhältnis zu ihr hat sich verändert. Ich lasse mich nicht mehr dauerhaft in Probleme hineinziehen, für die ich keine Lösung habe. Stattdessen orientiere ich mich an dem, was für mich sinnvoll ist und worauf ich Einfluss nehmen kann. Dieser Sinnzusammenhang gibt mir Stabilität. Und genau deshalb stresst mich die Welt heute deutlich weniger als früher.
Es gibt eine ganz bestimmte Art von Situation, die ich lange vor mir hergeschoben habe: Gespräche, in denen ich etwas ablehnen muss. Eine Absage formulieren, jemanden enttäuschen, Grenzen setzen – und dabei gleichzeitig fair, klar und respektvoll bleiben. Das sind genau die Momente, in denen ich merke, dass ich innerlich ins Schwimmen komme. Ich will niemanden vor den Kopf stoßen, ich will nichts kaputt machen, und gleichzeitig weiß ich, dass ich eigentlich „nein“ sagen müsste. Genau in solchen Situationen habe ich angefangen, KI als Denkwerkzeug zu nutzen – aber nicht so, wie man es intuitiv machen würde.
Warum „Schreib mir eine Absage“ nicht funktioniert
Der erste Impuls ist oft naheliegend: Ich gebe der KI die Aufgabe, mir einfach eine Absage zu formulieren. Aber genau das ist der falsche Ansatz. Denn ein schwieriges Gespräch ist kein Textproblem, sondern ein Denkproblem. Wenn ich die Situation selbst nicht klar verstanden habe, wird auch die beste Formulierung nichts retten. Ich merke dann schnell, dass solche generierten Texte entweder zu weich sind, zu hart oder einfach nicht wirklich passen. Sie fühlen sich nicht nach mir an, weil sie nicht aus meiner eigenen Klarheit entstanden sind.
Der aristotelische Zugang: wohlberaten handeln
Was mir an der Stelle wirklich geholfen hat, ist ein Gedanke aus der Nikomachischen Ethik von Aristoteles. Dort geht es darum, dass gutes Handeln nicht einfach spontan entsteht, sondern dass man sich „wohlberaten“ der Sache nähert. Das bedeutet: Ich nehme mir Zeit, die Situation wirklich zu durchdenken, verschiedene Perspektiven zu betrachten und eine Entscheidung bewusst vorzubereiten. Genau hier wird die KI für mich interessant, weil sie mir helfen kann, diesen Beratungsprozess strukturiert zu führen.
KI als Sparringspartner statt Textgenerator
Ich nutze die KI nicht mehr, um mir fertige Antworten geben zu lassen, sondern als Sparringspartner. Ich beschreibe die Situation abstrahiert, ohne persönliche Details, und arbeite mich Schritt für Schritt durch die Fragen: Was ist eigentlich mein Ziel? Was sind meine echten Gründe für die Absage? Welche Interessen hat die andere Person? Wo liegt mein Konflikt? Die KI hilft mir dabei, diese Punkte zu sortieren, blinde Flecken zu erkennen und meine Gedanken zu präzisieren. Dadurch entsteht nicht einfach ein Text, sondern eine innere Klarheit. Und erst aus dieser Klarheit heraus formuliere ich dann selbst, was ich sagen will.
Datenschutz: Wie ich sensibel damit umgehe
Ein wichtiger Punkt dabei ist für mich der Umgang mit Daten. Wenn ich solche Gespräche vorbereite, geht es oft um persönliche oder berufliche Kontexte, und da will ich nicht leichtfertig Informationen preisgeben. Deshalb halte ich mich an ein paar einfache Prinzipien: Ich verwende keine Klarnamen, keine konkreten Firmennamen und keine identifizierbaren Details. Stattdessen abstrahiere ich die Situation so, dass sie strukturell gleich bleibt, aber keine Rückschlüsse auf reale Personen möglich sind. Das funktioniert erstaunlich gut, weil es für den Denkprozess ohnehin nicht auf die konkreten Namen ankommt, sondern auf die Dynamik der Situation.
Realismus und Grenzen
Natürlich ist mir bewusst, dass das keine perfekte Lösung ist. Selbst wenn ich keine sensiblen Daten eingebe, arbeite ich immer noch mit einem Account, der mir zugeordnet werden kann. Auch wenn es sich um europäische Anbieter handelt und Datenschutz eine Rolle spielt, bleibt ein Restrisiko. Langfristig wird es bessere Lösungen geben müssen, bei denen solche Prozesse wirklich anonym oder lokal stattfinden können. Ich arbeite selbst an so etwas, aber das ist noch nicht so weit, dass ich es hier sinnvoll einsetzen würde. Für den Moment geht es mir darum, bewusst und verantwortungsvoll mit den bestehenden Möglichkeiten umzugehen.
Der eigentliche Nutzen
Was sich für mich verändert hat, ist nicht nur die Qualität meiner Gespräche, sondern meine Haltung dazu. Ich gehe nicht mehr unvorbereitet oder aus einem diffusen Gefühl heraus in solche Situationen. Ich nehme mir vorher die Zeit, mich wohlberaten der Sache zu nähern. Die KI hilft mir dabei, meine Gedanken zu ordnen, aber die Entscheidung und die Verantwortung bleiben bei mir. Und genau das ist der entscheidende Punkt: Ich delegiere nicht die Kommunikation, sondern ich verbessere mein Denken.
Fazit
Ein schwieriges Gespräch lässt sich nicht outsourcen. Aber ich kann den Prozess, der zu diesem Gespräch führt, deutlich verbessern. Wenn ich KI als Sparringspartner nutze und nicht als Ersatz für meine eigene Klarheit, dann entsteht etwas sehr Wertvolles. Ich werde ruhiger, strukturierter und sicherer in dem, was ich sagen will. Und am Ende führe ich das Gespräch immer noch selbst – aber deutlich besser vorbereitet.
Gestern Nacht ist die Kapsel der Artemis II-Mission wieder auf der Erde gelandet.
Zum ersten Mal seit Jahrzehnten waren wieder Menschen in der Nähe des Mondes. Es wurden neue Aufnahmen gemacht – unter anderem Bilder der Erde als Kugel, teilweise hinter dem Mond aufgehend. Diese Bilder gingen sofort durch alle Medien.
Und genauso schnell waren sie auch wieder „widerlegt“.
Auf Plattformen wie YouTube oder TikTok kursieren bereits unzählige Videos von Anhängern der Flache Erde, die erklären, warum das alles Fake ist. Parallel dazu gibt es Wissenschaftskommunikator:innen, die genau diese Behauptungen auseinandernehmen.
Wenn ich ehrlich bin: Natürlich neige ich dazu, den wissenschaftlichen Erklärungen zu vertrauen. Aber ich mache hier bewusst eine Fingerübung. Ich war nicht dabei – und stelle mir einmal ernsthaft die Frage: Woran erkenne ich, wessen Darstellung mehr Substanz hat und wem ich darum eher vertrauen sollte?
Es geht nicht um wahr oder falsch
Man könnte jetzt versuchen, diese Frage direkt zu beantworten: Wer hat recht? Aber genau da wird es schnell unerquicklich. Beide Seiten behaupten Dinge. Beide Seiten bringen „Belege“.
Deshalb gehe ich einen Schritt zurück. Ich behandle beide Positionen erst einmal gleich: als Modelle.
Das eine Modell sagt: Die Erde ist eine Kugel, Raumfahrt funktioniert, und die Bilder der Artemis-Mission zeigen reale Ereignisse. Das andere Modell sagt: Es gibt keinen Weltraum in diesem Sinne, die Erde ist flach, und die Bilder sind Fälschungen.
Ich frage nicht: Welches Modell ist wahr? Ich frage: Welches Modell ist eher brauchbar?
Modelle müssen Vorhersagen ermöglichen
Ein Modell ist für mich wie eine Landkarte. Es soll mir helfen, mich in der Welt zu orientieren. Und das bedeutet vor allem: Es muss konkrete Vorhersagen liefern.
Das Kugelmodell kann das. Es kann mir sagen, wann morgen in Berlin die Sonne untergeht. Es kann mir sagen, wann die nächste Sonnenfinsternis stattfindet. Es kann berechnen, wie Raumflugbahnen verlaufen müssen, damit eine Kapsel wie bei Artemis den Mond umrundet und wieder sicher zurückkehrt.
Und genau das ist passiert. Das Modell hat eine konkrete Vorhersage gemacht – und dann ist die Kapsel genau so geflogen, wie es berechnet wurde.
Jetzt schaue ich mir das andere Modell an. Was sagt das Flacherd-Modell konkret voraus? Wann genau findet die nächste Sonnenfinsternis statt – und warum? Wie verlaufen Flugrouten zwischen Kontinenten, wenn die Erde flach ist? Wie müsste die Bewegung der Sonne aussehen, damit Tag und Nacht funktionieren?
Hier wird es plötzlich sehr still.
Einzelne Behauptungen sind kein Gegenmodell
Die Videos, die ich sehe, arbeiten fast immer gleich: Sie nehmen einzelne Aspekte heraus („Dieses Bild sieht komisch aus“, „Dieser Schatten passt nicht“) und erklären daraus, dass alles Fake sein muss.
Was fehlt, ist ein konsistentes Gegenmodell. Wenn ich sage, die Bilder von Artemis seien gefälscht, dann reicht das nicht. Ich müsste erklären können, wie die Welt stattdessen funktioniert – und zwar so konkret, dass ich daraus wieder Vorhersagen ableiten kann.
Genau das passiert nicht. Stattdessen bleibt es bei einzelnen Behauptungen. Und damit kann ich nichts anfangen.
Fazit
Die Frage „Wem soll ich glauben?“ ist in solchen Situationen eigentlich die falsche Frage.
Die bessere Frage ist: Welches Modell liefert mir überprüfbare, konkrete und brauchbare Vorhersagen?
Im Fall der Artemis-Mission ist die Antwort eindeutig. Das eine Modell sagt: „Alles ist Fake.“ Das andere sagt: „Wenn wir X tun, wird Y passieren“ – und dann passiert genau das.
Für mich ist die Entscheidung damit keine Frage von Glauben. Sondern von Funktion.
Gestern Nacht ist die Kapsel der Artemis II-Mission wieder auf der Erde gelandet.
Zum ersten Mal seit Jahrzehnten waren wieder Menschen in der Nähe des Mondes. Es wurden neue Aufnahmen gemacht – unter anderem Bilder der Erde als Kugel, teilweise hinter dem Mond aufgehend. Diese Bilder gingen sofort durch alle Medien.
Und genauso schnell waren sie auch wieder „widerlegt“.
Auf Plattformen wie YouTube oder TikTok kursieren bereits unzählige Videos von Anhängern der Flache Erde, die erklären, warum das alles Fake ist. Parallel dazu gibt es Wissenschaftskommunikator:innen, die genau diese Behauptungen auseinandernehmen.
Wenn ich ehrlich bin: Natürlich neige ich dazu, den wissenschaftlichen Erklärungen zu vertrauen. Aber ich mache hier bewusst eine Fingerübung. Ich war nicht dabei – und stelle mir einmal ernsthaft die Frage: Woran erkenne ich, wessen Darstellung mehr Substanz hat und wem ich darum eher vertrauen sollte?
Es geht nicht um wahr oder falsch
Man könnte jetzt versuchen, diese Frage direkt zu beantworten: Wer hat recht? Aber genau da wird es schnell unerquicklich. Beide Seiten behaupten Dinge. Beide Seiten bringen „Belege“.
Deshalb gehe ich einen Schritt zurück. Ich behandle beide Positionen erst einmal gleich: als Modelle.
Das eine Modell sagt: Die Erde ist eine Kugel, Raumfahrt funktioniert, und die Bilder der Artemis-Mission zeigen reale Ereignisse. Das andere Modell sagt: Es gibt keinen Weltraum in diesem Sinne, die Erde ist flach, und die Bilder sind Fälschungen.
Ich frage nicht: Welches Modell ist wahr? Ich frage: Welches Modell ist eher brauchbar?
Modelle müssen Vorhersagen ermöglichen
Ein Modell ist für mich wie eine Landkarte. Es soll mir helfen, mich in der Welt zu orientieren. Und das bedeutet vor allem: Es muss konkrete Vorhersagen liefern.
Das Kugelmodell kann das. Es kann mir sagen, wann morgen in Berlin die Sonne untergeht. Es kann mir sagen, wann die nächste Sonnenfinsternis stattfindet. Es kann berechnen, wie Raumflugbahnen verlaufen müssen, damit eine Kapsel wie bei Artemis den Mond umrundet und wieder sicher zurückkehrt.
Und genau das ist passiert. Das Modell hat eine konkrete Vorhersage gemacht – und dann ist die Kapsel genau so geflogen, wie es berechnet wurde.
Jetzt schaue ich mir das andere Modell an. Was sagt das Flacherd-Modell konkret voraus? Wann genau findet die nächste Sonnenfinsternis statt – und warum? Wie verlaufen Flugrouten zwischen Kontinenten, wenn die Erde flach ist? Wie müsste die Bewegung der Sonne aussehen, damit Tag und Nacht funktionieren?
Hier wird es plötzlich sehr still.
Einzelne Behauptungen sind kein Gegenmodell
Die Videos, die ich sehe, arbeiten fast immer gleich: Sie nehmen einzelne Aspekte heraus („Dieses Bild sieht komisch aus“, „Dieser Schatten passt nicht“) und erklären daraus, dass alles Fake sein muss.
Was fehlt, ist ein konsistentes Gegenmodell. Wenn ich sage, die Bilder von Artemis seien gefälscht, dann reicht das nicht. Ich müsste erklären können, wie die Welt stattdessen funktioniert – und zwar so konkret, dass ich daraus wieder Vorhersagen ableiten kann.
Genau das passiert nicht. Stattdessen bleibt es bei einzelnen Behauptungen. Und damit kann ich nichts anfangen.
Fazit
Die Frage „Wem soll ich glauben?“ ist in solchen Situationen eigentlich die falsche Frage.
Die bessere Frage ist: Welches Modell liefert mir überprüfbare, konkrete und brauchbare Vorhersagen?
Im Fall der Artemis-Mission ist die Antwort eindeutig. Das eine Modell sagt: „Alles ist Fake.“ Das andere sagt: „Wenn wir X tun, wird Y passieren“ – und dann passiert genau das.
Für mich ist die Entscheidung damit keine Frage von Glauben. Sondern von Funktion.
Es gibt viele psychologische Modelle. Aber nur wenige haben für mich diesen Punkt erreicht, an dem ich sage: Das hilft mir im Alltag wirklich. Das Schema-Modus-Modell aus der Schematherapie gehört definitiv dazu. Nicht, weil es besonders elegant klingt oder theoretisch überzeugend ist, sondern weil es sehr nah an dem ist, was tatsächlich im Gehirn passiert, und was ich tatsächlich bei mir beobachten kann.
Was hinter dem Modell steckt
Der Kern des Modells ist für mich überraschend einfach, wenn ich ihn runterbreche. Es geht im Grunde um zwei Dinge: Strukturen im Gehirn und deren Aktivierung.
Das, was in der Schematherapie als Schema bezeichnet wird, ist die Struktur im Gehirn.
Das sind neuronale Verschaltungen, die sich über Zeit aufgebaut haben. Sie entstehen durch Erfahrungen, durch Wiederholung, durch Lernen. Diese Strukturen sind relativ stabil. Sie verschwinden nicht einfach, nur weil ich sie einmal verstanden habe.
Der zweite Teil ist der Modus. Das ist die Aktivierung dieses Wirings im konkreten Moment.
Ein Schema kann vorhanden sein, ohne dass es gerade aktiv ist. Erst wenn es getriggert wird, wenn bestimmte Bedingungen erfüllt sind, „springt“ es an. Und genau dann bin ich in einem bestimmten Modus.
Das kann ein funktionaler Zustand sein, in dem ich klar, ruhig und handlungsfähig bin. Oder ein dysfunktionaler Zustand, in dem ich zum Beispiel überreagiere, mich zurückziehe oder in alte Muster falle.
Warum das für mich so praktisch ist
Was ich an diesem Modell so hilfreich finde, ist, dass es die Dinge entmystifiziert. Es geht nicht darum, dass ich „so bin“ oder dass mit mir „etwas nicht stimmt“. Es geht darum, dass bestimmte Muster vorhanden sind und unter bestimmten Bedingungen aktiviert werden. Das ist etwas, das ich beobachten kann. Und vor allem ist es etwas, womit ich arbeiten kann.
Ich kann anfangen zu unterscheiden: Was ist gerade mein Zustand? Welcher Modus ist aktiv? Und was sind die typischen Trigger dafür? Allein diese Differenzierung schafft schon einen Abstand. Ich bin nicht mehr vollständig identisch mit meiner Reaktion, sondern kann sie als Aktivierung eines Musters sehen.
Das ist das, was wirklich passiert
Für mich ist das der entscheidende Punkt: Dieses Modell beschreibt nicht nur abstrakt irgendetwas, sondern es kommt sehr nah an das heran, was tatsächlich passiert. Es ist kein reines Erklärmodell, sondern ein Arbeitsmodell. Ich kann es direkt anwenden, in dem Moment, in dem etwas in mir passiert.
Wenn ich merke, dass ich überreagiere, dass ich in Stress komme oder in alte Verhaltensweisen falle, dann kann ich das als Aktivierung eines Modus verstehen. Und wenn ich tiefer gehe, kann ich erkennen, welches zugrunde liegende Schema hier gerade aktiv geworden ist. Dadurch wird aus einem diffusen Gefühl eine strukturierte Beobachtung.
Fazit
Das Schema-Modus-Modell ist für mich deshalb so wertvoll, weil es eine Brücke schlägt zwischen Theorie und Praxis. Es gibt mir eine Sprache für das, was in mir passiert, und gleichzeitig konkrete Ansatzpunkte, um damit umzugehen. Ich sehe meine Reaktionen nicht mehr als etwas Zufälliges oder Unkontrollierbares, sondern als das Ergebnis von Wiring und Aktivierung. Und genau das macht Veränderung überhaupt erst möglich.
Ich habe irgendwann angefangen, mir klarzumachen, dass ich die Realität gar nicht direkt erlebe. Das klingt erstmal abstrakt, ist aber eigentlich ziemlich simpel. Es gibt da draußen eine Welt, ja. Aber das, was ich wahrnehme, ist immer schon eine Interpretation. Ein Modell. Etwas, das mein Gehirn konstruiert, um mit dieser Welt umgehen zu können.
Die Realität ist nicht direkt zugänglich
Ich habe keinen unmittelbaren Zugriff auf die „wahre Natur der Dinge“. Was ich habe, sind Eindrücke, Wahrnehmungen, Gedanken – und die sind bereits verarbeitet. Mein Gehirn filtert, interpretiert, vereinfacht. Es baut ein Bild, das für mich handhabbar ist. Aber dieses Bild ist nicht die Realität selbst.
Das bedeutet nicht, dass es keine Realität gibt. Es bedeutet nur, dass ich sie nicht unvermittelt erfahre. Ich arbeite immer mit einer Abstraktion.
Modelle als Werkzeug für Vorhersagen
Wenn ich mir das so anschaue, wird klar, worum es eigentlich geht: nicht um Wahrheit im absoluten Sinne, sondern um Brauchbarkeit. Ein gutes Modell ist eines, mit dem ich sinnvolle Vorhersagen treffen kann. Es hilft mir, Erwartungen zu bilden und mich in der Welt zu orientieren.
Genau das macht Wissenschaft. Sie versucht nicht, die „wahre Essenz“ der Dinge zu erfassen, sondern Modelle zu bauen, die möglichst zuverlässig funktionieren. Modelle, die erklären, warum etwas passiert und was wahrscheinlich als Nächstes passiert.
Und wenn ich ehrlich bin, mache ich im Alltag genau das Gleiche. Immer wenn ich über die Welt nachdenke, wenn ich Entscheidungen treffe oder andere Menschen einschätze, arbeite ich mit Modellen.
Mein Gehirn macht nichts anderes
Der spannende Punkt für mich ist: Mein Gehirn macht genau das permanent. Es ist im Grunde eine Prediction Machine. Es versucht ständig, auf Basis vergangener Erfahrungen Vorhersagen zu treffen. Was passiert als Nächstes? Wie wird jemand reagieren? Was bedeutet diese Situation?
Alles, was ich wahrnehme, wird in diesem Kontext interpretiert. Mein Gehirn gleicht ständig ab: Passt das zu meinen Erwartungen oder nicht? Und wenn nicht, wird das Modell angepasst.
Es gibt keine absolute Wahrheit für mich
Das führt zu einer unbequemen, aber für mich sehr hilfreichen Einsicht: Ich habe keinen direkten Zugang zur Wahrheit. Niemand hat den. Es gibt nur Modelle, die besser oder schlechter funktionieren.
Das nimmt erstmal die Illusion, dass ich „recht haben“ könnte im absoluten Sinne. Gleichzeitig gibt es mir aber etwas viel Praktischeres an die Hand: Ich kann Modelle bewerten. Ich kann schauen, ob sie mir helfen, die Welt besser zu verstehen und sinnvoll zu handeln.
Es geht um die Qualität der Modelle
Am Ende geht es für mich nicht darum, das eine „wahre“ Modell zu finden. Das ist eine Sackgasse. Es geht darum, die Qualität meiner Modelle zu verbessern.
Ein gutes Modell ist für mich eines, das klar ist, das konsistent ist und das sich in der Praxis bewährt. Eines, das mir hilft, bessere Entscheidungen zu treffen und weniger überrascht zu werden von dem, was passiert.
Und genau deshalb sind Modelle für mich „die Sache“. Nicht als abstrakte Theorie, sondern als das, womit ich tatsächlich jeden Tag arbeite – ob ich mir dessen bewusst bin oder nicht.
Es gibt eine ganz bestimmte Art von Situation, die ich lange vor mir hergeschoben habe: Gespräche, in denen ich etwas ablehnen muss. Eine Absage formulieren, jemanden enttäuschen, Grenzen setzen – und dabei gleichzeitig fair, klar und respektvoll bleiben. Das sind genau die Momente, in denen ich merke, dass ich innerlich ins Schwimmen komme. Ich will niemanden vor den Kopf stoßen, ich will nichts kaputt machen, und gleichzeitig weiß ich, dass ich eigentlich „nein“ sagen müsste. Genau in solchen Situationen habe ich angefangen, KI als Denkwerkzeug zu nutzen – aber nicht so, wie man es intuitiv machen würde.
Warum „Schreib mir eine Absage“ nicht funktioniert
Der erste Impuls ist oft naheliegend: Ich gebe der KI die Aufgabe, mir einfach eine Absage zu formulieren. Aber genau das ist der falsche Ansatz. Denn ein schwieriges Gespräch ist kein Textproblem, sondern ein Denkproblem. Wenn ich die Situation selbst nicht klar verstanden habe, wird auch die beste Formulierung nichts retten. Ich merke dann schnell, dass solche generierten Texte entweder zu weich sind, zu hart oder einfach nicht wirklich passen. Sie fühlen sich nicht nach mir an, weil sie nicht aus meiner eigenen Klarheit entstanden sind.
Der aristotelische Zugang: wohlberaten handeln
Was mir an der Stelle wirklich geholfen hat, ist ein Gedanke aus der Nikomachischen Ethik von Aristoteles. Dort geht es darum, dass gutes Handeln nicht einfach spontan entsteht, sondern dass man sich „wohlberaten“ der Sache nähert. Das bedeutet: Ich nehme mir Zeit, die Situation wirklich zu durchdenken, verschiedene Perspektiven zu betrachten und eine Entscheidung bewusst vorzubereiten. Genau hier wird die KI für mich interessant, weil sie mir helfen kann, diesen Beratungsprozess strukturiert zu führen.
KI als Sparringspartner statt Textgenerator
Ich nutze die KI nicht mehr, um mir fertige Antworten geben zu lassen, sondern als Sparringspartner. Ich beschreibe die Situation abstrahiert, ohne persönliche Details, und arbeite mich Schritt für Schritt durch die Fragen: Was ist eigentlich mein Ziel? Was sind meine echten Gründe für die Absage? Welche Interessen hat die andere Person? Wo liegt mein Konflikt? Die KI hilft mir dabei, diese Punkte zu sortieren, blinde Flecken zu erkennen und meine Gedanken zu präzisieren. Dadurch entsteht nicht einfach ein Text, sondern eine innere Klarheit. Und erst aus dieser Klarheit heraus formuliere ich dann selbst, was ich sagen will.
Datenschutz: Wie ich sensibel damit umgehe
Ein wichtiger Punkt dabei ist für mich der Umgang mit Daten. Wenn ich solche Gespräche vorbereite, geht es oft um persönliche oder berufliche Kontexte, und da will ich nicht leichtfertig Informationen preisgeben. Deshalb halte ich mich an ein paar einfache Prinzipien: Ich verwende keine Klarnamen, keine konkreten Firmennamen und keine identifizierbaren Details. Stattdessen abstrahiere ich die Situation so, dass sie strukturell gleich bleibt, aber keine Rückschlüsse auf reale Personen möglich sind. Das funktioniert erstaunlich gut, weil es für den Denkprozess ohnehin nicht auf die konkreten Namen ankommt, sondern auf die Dynamik der Situation.
Realismus und Grenzen
Natürlich ist mir bewusst, dass das keine perfekte Lösung ist. Selbst wenn ich keine sensiblen Daten eingebe, arbeite ich immer noch mit einem Account, der mir zugeordnet werden kann. Auch wenn es sich um europäische Anbieter handelt und Datenschutz eine Rolle spielt, bleibt ein Restrisiko. Langfristig wird es bessere Lösungen geben müssen, bei denen solche Prozesse wirklich anonym oder lokal stattfinden können. Ich arbeite selbst an so etwas, aber das ist noch nicht so weit, dass ich es hier sinnvoll einsetzen würde. Für den Moment geht es mir darum, bewusst und verantwortungsvoll mit den bestehenden Möglichkeiten umzugehen.
Der eigentliche Nutzen
Was sich für mich verändert hat, ist nicht nur die Qualität meiner Gespräche, sondern meine Haltung dazu. Ich gehe nicht mehr unvorbereitet oder aus einem diffusen Gefühl heraus in solche Situationen. Ich nehme mir vorher die Zeit, mich wohlberaten der Sache zu nähern. Die KI hilft mir dabei, meine Gedanken zu ordnen, aber die Entscheidung und die Verantwortung bleiben bei mir. Und genau das ist der entscheidende Punkt: Ich delegiere nicht die Kommunikation, sondern ich verbessere mein Denken.
Fazit
Ein schwieriges Gespräch lässt sich nicht outsourcen. Aber ich kann den Prozess, der zu diesem Gespräch führt, deutlich verbessern. Wenn ich KI als Sparringspartner nutze und nicht als Ersatz für meine eigene Klarheit, dann entsteht etwas sehr Wertvolles. Ich werde ruhiger, strukturierter und sicherer in dem, was ich sagen will. Und am Ende führe ich das Gespräch immer noch selbst – aber deutlich besser vorbereitet.
Es ist ein seltsames Phänomen, das ich beim Programmieren mit KI immer wieder beobachte. Ich sitze ruhig da, arbeite konzentriert, lasse mir Code generieren – und plötzlich kippt etwas. Ich werde ungeduldig, gereizt und manchmal sogar richtig wütend. Ich merke, wie ich innerlich anfange, die KI anzufahren. Ich denke Dinge wie: „Das ist kompletter Unsinn“ oder „Das kann doch nicht so schwer sein“. Und obwohl ich genau weiß, dass das keinen Sinn ergibt – die KI fühlt nichts, sie versteht keine Aggression – passiert es trotzdem. Gerade beim Programmieren ist das besonders stark. Wenn ich Texte schreibe oder Ideen entwickle, bleibt das meist entspannt, aber beim Code wird es schnell emotional. Und genau das hat mich neugierig gemacht.
Programmieren mit KI als psychologisches Experiment
Ich habe irgendwann verstanden, dass das kein technisches Problem ist, sondern ein psychologisches. Die KI ist für mich kein klassisches Tool mehr, sondern ein Denkwerkzeug. Ich gebe ihr Struktur, sie gibt mir etwas zurück, das fast passt – aber eben nicht ganz. Und genau dieses „fast richtig“ ist der Punkt, an dem es kippt. Ich muss Dinge debuggen, die ich nicht selbst geschrieben habe, und Annahmen rekonstruieren, die ich nie explizit gemacht habe. Gleichzeitig habe ich den Anspruch, dass es eigentlich schnell und sauber funktionieren sollte. Das erzeugt eine Mischung aus Kontrollverlust und Erwartungsbruch, und genau daraus entsteht die emotionale Reaktion.
Mein Bully-and-Attack-Modus
Was ich dabei beobachte, lässt sich sehr gut mit einem Modell aus der Schematherapie beschreiben. Ich falle in einen Modus, den man dort als „Bully-and-Attack“ bezeichnet. Das ist ein Zustand, in dem ich angreifend, abwertend und ungeduldig werde. Ein Modus, der darauf abzielt, Druck auszuüben und Kontrolle zurückzugewinnen – auch wenn das objektiv keinen Sinn ergibt. Das Absurde daran ist offensichtlich: Ich versuche, Druck auf etwas auszuüben, das gar nicht darauf reagieren kann. Aber subjektiv fühlt es sich in dem Moment logisch an, als würde ich das Problem lösen, indem ich es attackiere. Und genau hier wird es interessant, denn das hat nichts mit der KI zu tun. Das bin ich.
Der Moment der Awareness
Der entscheidende Punkt ist für mich nicht, diesen Modus komplett zu vermeiden. Das funktioniert ohnehin nicht zuverlässig. Der entscheidende Punkt ist, ihn zu erkennen. In dem Moment, in dem ich merke: „Ich bin gerade im Bully-and-Attack-Modus“, passiert etwas Wichtiges. Ich bin nicht mehr vollständig darin gefangen, sondern habe wieder einen kleinen Abstand. Und genau dieser Abstand ist der Hebel, weil er mir ermöglicht, bewusst zu entscheiden, wie ich weiterarbeite.
Zurück in den Gesunden Erwachsenen
Aus der Schematherapie kommt auch die Gegenposition zu diesem Modus: der Gesunde Erwachsene. Wenn ich es schaffe, aus dem Attack-Modus wieder in diesen Zustand zurückzukommen, verändert sich sofort mein Verhalten. Ich werde ruhiger, präziser und klarer. Ich frage mich nicht mehr, warum die KI „so schlecht“ ist, sondern was genau ich unklar formuliert habe. Ich zerlege das Problem wieder in kleinere Schritte und beginne, strukturiert zu denken, statt emotional zu reagieren. Und plötzlich funktioniert die Zusammenarbeit wieder. Das ist kein Zufall, sondern genau der Zustand, in dem ich als Entwickler am besten arbeite.
Warum das beim Code so eskaliert
Mir ist auch klar geworden, warum das gerade beim Programmieren so stark auftritt. Code ist kompromisslos. Entweder er funktioniert oder er funktioniert nicht, es gibt kaum Grauzonen. Während ich bei Texten mit Unschärfen leben kann, blockiert mich schlechter Code sofort. Das erhöht den Druck, und unter Druck greifen genau die Muster, die ich eigentlich nicht haben will. Die KI verstärkt das zusätzlich, weil sie oft Dinge produziert, die sehr nah dran sind, aber eben nicht korrekt. Dieses „fast richtig“ zwingt mich, mich intensiver damit auseinanderzusetzen, als wenn etwas komplett falsch wäre.
Was das über mich als Entwickler aussagt
Die vielleicht wichtigste Erkenntnis für mich ist: Dieses Verhalten ist nicht neu, die KI macht es nur sichtbar. Der Bully-and-Attack-Modus ist ein Muster, das ich unter Frust aktiviere, und die KI ist ein perfekter Trigger dafür, weil sie mich permanent in genau diese Grenzsituationen bringt. Wenn ich das ernst nehme, ist das kein nerviges Nebenprodukt, sondern eine Trainingssituation. Ich lerne hier nicht nur, besser mit KI zu arbeiten, sondern mich selbst besser zu steuern.
Programmieren als Selbstführung
Für mich ist Programmieren mit KI mittlerweile auch eine Form von Selbstführung geworden. Ich beobachte mich, erkenne meine Zustände und übe, bewusst in einen funktionalen Modus zurückzukehren. Das ist keine theoretische Übung, sondern hat direkte Auswirkungen auf meine Arbeit. Ich schreibe bessere Prompts, denke klarer, mache weniger Fehler und komme schneller zu funktionierenden Lösungen.
Fazit
Was mich am meisten überrascht hat, ist nicht, dass KI manchmal nervt, sondern wie stark sie meine eigenen Muster sichtbar macht. Programmieren mit KI ist für mich nicht mehr nur ein technischer Prozess, sondern ein Spiegel. Und wenn ich diesen Spiegel ernst nehme, werde ich nicht nur ein besserer Entwickler. Ich werde ruhiger, klarer und effektiver in dem, was ich tue.
Mir ist beim Arbeiten mit KI irgendwann ein Muster aufgefallen, das ich inzwischen ziemlich ernst nehme. Ich nenne es für mich die Prompt-to-Output-Ratio. Also ganz banal: Wie viel Input gebe ich rein – und wie viel Output kommt raus? Das klingt erstmal technisch, ist aber für mich ein ziemlich gutes Indiz dafür geworden, ob ich gerade etwas Sinnvolles produziere oder einfach nur KI-Slop erzeuge.
Woran ich gute Ergebnisse erkenne
Ich habe neulich einen psychologischen Artikel für meine Homepage mit KI erstellt. Der ganze Prozess, vom ersten Gedanken bis zur veröffentlichten Version, hat vielleicht 15 bis 20 Minuten gedauert. Und zwar inklusive deutscher und englischer Version. Das ist absurd schnell.
Aber das Entscheidende war nicht die Geschwindigkeit, sondern die Qualität. Als ich mir den Text durchgelesen habe, war klar: Das ist brauchbar. Das hat Substanz. Das ist nicht generischer KI-Gatsch.
Und dann ist mir etwas aufgefallen: Der Prompt, den ich geschrieben habe, war länger als der fertige Artikel.
Wenn der Prompt länger ist als der Output
Das ist kein Einzelfall. Ich sehe das immer wieder, auch beim Programmieren. Ich schreibe lange Prompts, manchmal mehrere hintereinander, beschreibe die Architektur, die Anforderungen, die Hintergedanken. Und dann kommen am Ende vielleicht zehn Zeilen Code raus – aber genau die richtigen.
Wenn ich mir die gesamte Menge an Input anschaue, die ich geliefert habe, ist sie oft größer als der Output, den die KI produziert. Und genau in diesen Fällen ist das Ergebnis fast immer gut.
Weil ich die Denkarbeit schon gemacht habe.
Wenn ich zu wenig denke, kommt Slop raus
Das Gegenstück dazu ist genauso klar. Wenn ich nur schreibe: „Schreib mir einen Artikel über X“ oder „Mach mir ein UI für diese Daten“, dann bekomme ich Output, der irgendwie passt – aber eben auch völlig austauschbar ist.
Das ist das, was man als AI Slop bezeichnet.
Und das ist kein Zufall. Das passiert, weil ich selbst sloppy war. Ich habe keine echten Entscheidungen getroffen, keine Perspektive geliefert, keine Constraints gesetzt. Ich habe der KI die Aufgabe gegeben, zu raten, was ich meinen könnte.
Und dann bekomme ich genau das: einen statistischen Mittelwert.
Was ich eigentlich messe
Mir ist inzwischen klar, dass ich mit dieser Ratio nicht wirklich Länge messe, sondern etwas anderes: Wie viel echte Denkarbeit kommt von mir?
Ein langer Prompt ist kein Garant für Qualität. Aber in der Praxis ist es oft ein gutes Zeichen, weil darin viele Entscheidungen stecken. Ich habe mir überlegt, was ich will, was nicht, für wen das gedacht ist, was der Zweck ist.
Die KI muss dann nicht mehr „denken“, sondern nur noch strukturieren, kürzen, formulieren.
Eine einfache Red Flag
Für mich hat sich daraus eine ziemlich praktische Heuristik ergeben.
Wenn die Prompt-to-Output-Ratio deutlich negativ ist – also wenn ich sehr wenig Input gebe und viel Output verlange – dann ist das eine Red Flag. Kein Beweis, dass das Ergebnis schlecht ist, aber ein starkes Warnsignal.
Dann sollte ich mich fragen: Habe ich mir überhaupt genug Gedanken gemacht?
Eine Green Flag, kein Beweis
Umgekehrt ist eine positive Ratio für mich eine Green Flag. Wenn mein Input umfangreicher ist als der Output, ist die Wahrscheinlichkeit hoch, dass ich die inhaltliche Arbeit bereits geleistet habe und die KI mir hilft, das sauber zu formen.
Das ist kein Garant für Qualität. Ich kann auch viel Unsinn in einen langen Prompt schreiben. Aber in der Praxis korreliert es erstaunlich stark mit guten Ergebnissen.
KI als Editor statt als Denker
Im Kern läuft es für mich auf eine Rollenfrage hinaus.
Wenn ich wenig Input gebe und viel Output verlange, behandle ich die KI wie einen Denker. Ich delegiere die eigentliche Arbeit.
Wenn ich viel Input gebe und die KI komprimieren, strukturieren und ausformulieren lasse, dann nutze ich sie als Werkzeug. Als Editor. Als eine Art Compiler für meine Gedanken.
Und genau dann wird sie richtig stark.
Fazit
Für mich ist die Prompt-to-Output-Ratio kein exaktes Maß, sondern ein einfaches Diagnose-Tool. Eine Art Selbstkontrolle.
Wenn ich merke, dass ich viel Output will bei wenig Input, weiß ich: Ich bin gerade dabei, mir Arbeit zu sparen, die ich eigentlich selbst machen müsste.
Und wenn ich sehe, dass mein Input umfangreich und durchdacht ist und der Output kompakt und präzise wird, dann ist das ein gutes Zeichen.
Am Ende ist die Regel simpel: Wenn ich gute Ergebnisse will, muss ich zuerst selbst denken. Die KI kann das beschleunigen – aber sie kann es mir nicht abnehmen.
Es gibt eine ganz bestimmte Art von Situation, die ich lange vor mir hergeschoben habe: Gespräche, in denen ich etwas ablehnen muss. Eine Absage formulieren, jemanden enttäuschen, Grenzen setzen – und dabei gleichzeitig fair, klar und respektvoll bleiben. Das sind genau die Momente, in denen ich merke, dass ich innerlich ins Schwimmen komme. Ich will niemanden vor den Kopf stoßen, ich will nichts kaputt machen, und gleichzeitig weiß ich, dass ich eigentlich „nein“ sagen müsste. Genau in solchen Situationen habe ich angefangen, KI als Denkwerkzeug zu nutzen – aber nicht so, wie man es intuitiv machen würde.
Warum „Schreib mir eine Absage“ nicht funktioniert
Der erste Impuls ist oft naheliegend: Ich gebe der KI die Aufgabe, mir einfach eine Absage zu formulieren. Aber genau das ist der falsche Ansatz. Denn ein schwieriges Gespräch ist kein Textproblem, sondern ein Denkproblem. Wenn ich die Situation selbst nicht klar verstanden habe, wird auch die beste Formulierung nichts retten. Ich merke dann schnell, dass solche generierten Texte entweder zu weich sind, zu hart oder einfach nicht wirklich passen. Sie fühlen sich nicht nach mir an, weil sie nicht aus meiner eigenen Klarheit entstanden sind.
Der aristotelische Zugang: wohlberaten handeln
Was mir an der Stelle wirklich geholfen hat, ist ein Gedanke aus der Nikomachischen Ethik von Aristoteles. Dort geht es darum, dass gutes Handeln nicht einfach spontan entsteht, sondern dass man sich „wohlberaten“ der Sache nähert. Das bedeutet: Ich nehme mir Zeit, die Situation wirklich zu durchdenken, verschiedene Perspektiven zu betrachten und eine Entscheidung bewusst vorzubereiten. Genau hier wird die KI für mich interessant, weil sie mir helfen kann, diesen Beratungsprozess strukturiert zu führen.
KI als Sparringspartner statt Textgenerator
Ich nutze die KI nicht mehr, um mir fertige Antworten geben zu lassen, sondern als Sparringspartner. Ich beschreibe die Situation abstrahiert, ohne persönliche Details, und arbeite mich Schritt für Schritt durch die Fragen: Was ist eigentlich mein Ziel? Was sind meine echten Gründe für die Absage? Welche Interessen hat die andere Person? Wo liegt mein Konflikt? Die KI hilft mir dabei, diese Punkte zu sortieren, blinde Flecken zu erkennen und meine Gedanken zu präzisieren. Dadurch entsteht nicht einfach ein Text, sondern eine innere Klarheit. Und erst aus dieser Klarheit heraus formuliere ich dann selbst, was ich sagen will.
Datenschutz: Wie ich sensibel damit umgehe
Ein wichtiger Punkt dabei ist für mich der Umgang mit Daten. Wenn ich solche Gespräche vorbereite, geht es oft um persönliche oder berufliche Kontexte, und da will ich nicht leichtfertig Informationen preisgeben. Deshalb halte ich mich an ein paar einfache Prinzipien: Ich verwende keine Klarnamen, keine konkreten Firmennamen und keine identifizierbaren Details. Stattdessen abstrahiere ich die Situation so, dass sie strukturell gleich bleibt, aber keine Rückschlüsse auf reale Personen möglich sind. Das funktioniert erstaunlich gut, weil es für den Denkprozess ohnehin nicht auf die konkreten Namen ankommt, sondern auf die Dynamik der Situation.
Realismus und Grenzen
Natürlich ist mir bewusst, dass das keine perfekte Lösung ist. Selbst wenn ich keine sensiblen Daten eingebe, arbeite ich immer noch mit einem Account, der mir zugeordnet werden kann. Auch wenn es sich um europäische Anbieter handelt und Datenschutz eine Rolle spielt, bleibt ein Restrisiko. Langfristig wird es bessere Lösungen geben müssen, bei denen solche Prozesse wirklich anonym oder lokal stattfinden können. Ich arbeite selbst an so etwas, aber das ist noch nicht so weit, dass ich es hier sinnvoll einsetzen würde. Für den Moment geht es mir darum, bewusst und verantwortungsvoll mit den bestehenden Möglichkeiten umzugehen.
Der eigentliche Nutzen
Was sich für mich verändert hat, ist nicht nur die Qualität meiner Gespräche, sondern meine Haltung dazu. Ich gehe nicht mehr unvorbereitet oder aus einem diffusen Gefühl heraus in solche Situationen. Ich nehme mir vorher die Zeit, mich wohlberaten der Sache zu nähern. Die KI hilft mir dabei, meine Gedanken zu ordnen, aber die Entscheidung und die Verantwortung bleiben bei mir. Und genau das ist der entscheidende Punkt: Ich delegiere nicht die Kommunikation, sondern ich verbessere mein Denken.
Fazit
Ein schwieriges Gespräch lässt sich nicht outsourcen. Aber ich kann den Prozess, der zu diesem Gespräch führt, deutlich verbessern. Wenn ich KI als Sparringspartner nutze und nicht als Ersatz für meine eigene Klarheit, dann entsteht etwas sehr Wertvolles. Ich werde ruhiger, strukturierter und sicherer in dem, was ich sagen will. Und am Ende führe ich das Gespräch immer noch selbst – aber deutlich besser vorbereitet.
Über mich
Ich habe mit Philosophie angefangen – und bin bei Software gelandet.
Seit über drei Jahrzehnten arbeite ich als Entwickler, Produktmanager und Berater und habe Apps und Systeme für große europäische Medienhäuser und Forschungsprojekte gebaut.
Dabei bin ich immer wieder bei denselben Fragen gelandet: wie wir denken, fühlen und handeln, wie wir mit uns selbst und anderen umgehen – und wie wir die Welt verstehen, in der wir leben. Deshalb habe ich mich über die Jahre intensiver mit Psychologie, Neuroethik, kritischem Denken und Coaching beschäftigt.
Aktuell arbeite ich an einer neuen Reihe von Apps rund um Selbstcoaching, Denken und Kreativität – auf Basis von Psychologie, Neurowissenschaften und KI. Stay tuned!