LLMs richtig nutzen: Wie ich große Sprachmodelle im Alltag einsetze

Basiswissen inclusive Tipps und Tricks von Andrej Karpathy

Große Sprachmodelle wie ChatGPT sind heute viel mehr als einfache Chatbots. Sie sind zu vielseitigen Helfern geworden, die in vielen Situationen nützlich sind – egal ob bei der Arbeit, beim Lernen oder im Alltag. Ich möchte dir zeigen, wie ich LLMs wirklich nutze, welche verschiedenen Möglichkeiten es gibt und worauf du achten solltest, um das meiste aus ihnen herauszuholen.


Die wachsende Welt der großen Sprachmodelle

Seit ChatGPT im Jahr 2022 von OpenAI veröffentlicht wurde, hat sich das Angebot an großen Sprachmodellen rasant erweitert. ChatGPT war das erste seiner Art, das über eine Textschnittstelle direkt für Nutzer zugänglich war und schnell sehr populär wurde. Heute, im Jahr 2025, gibt es viele neue Mitbewerber und Klone mit unterschiedlichen Stärken.

Große Tech-Firmen bringen eigene Sprachmodelle oder Chatbots heraus, etwa:

Startups mischen ebenfalls mit, zum Beispiel:

Außerdem kommen Unternehmen aus aller Welt, wie DeepSeek aus China oder LChat aus Frankreich, hinzu. All diese Modelle entwickeln sich schnell weiter. Wer den Überblick behalten will, schaut sich Plattformen wie die Chatbot Arena oder das Scale AI Leaderboard an. Dort werden verschiedene Modelle bewertet und nach ihren Fähigkeiten eingestuft.

Trotz der vielen Alternativen ist ChatGPT immer noch der unangefochtene Platzhirsch. Es ist das Ursprungsmodell, hat am meisten Erfahrung und die umfangreichsten Funktionen. Dennoch lohnt sich der Blick über den Tellerrand, da andere Anbieter teilweise spezielle Features bieten, die ChatGPT nicht hat.


Wie ChatGPT unter der Oberfläche funktioniert

Wenn du mit ChatGPT chattest, passiert im Kern Folgendes: Deine Texteingabe wird in kleinere Einheiten zerlegt, sogenannte Tokens. Diese sind so etwas wie Wörter oder Wortteile, aus denen der ganze Text besteht.

Nehmen wir an, du gibst einen Satz in ChatGPT ein. Dieser Satz wird in ca. 15 Tokens zerlegt und als Eingabe an das Modell geschickt. Das Sprachmodell antwortet dann mit einer bestimmten Anzahl an Tokens, z.B. 19 Tokens, die deinen Text in eine Antwort verwandeln.

Der ganze Chat ist damit eine übersichtliche Folge von Token-Sequenzen – eine Art fortlaufender Textstrom, in den du und das Modell gemeinsam schreiben. Hinter den Kulissen entstehen daraus einzelne „Chat-Blasen“, die unseren Dialog sichtbar machen. Das ist das sogenannte Kontextfenster, eine Art Arbeitsspeicher, das alle bisherigen Nachrichten einer Unterhaltung enthält.

Wenn du ein neues Gespräch startest, wird diese „Arbeitsmappe“ gelöscht und frisch von vorne begonnen. Das solltest du immer dann machen, wenn du das Thema wechselst, damit der Kontext nicht zu lang und verwirrend für das Modell wird.

Ganz grob kannst du ChatGPT als eine Art 1-Terabyte-Zip-Datei sehen: Die Vortrainierungsphase des Modells hat das Internet eingesammelt und „komprimiert“. Das Ergebnis sind etwa eine Billion Parameter, die dein Modell „wissen“ lassen – allerdings mit einem Wissensstand, der nur bis etwa sechs Monate vor dem letzten Training reicht. Das heißt, das Modell kennt keine brandaktuellen Ereignisse aus den letzten Wochen.

Um das Modell zu einem nützlichen Assistenten zu wandeln, folgt die Feinabstimmung (Post-Training), bei der es lernt, wie man wie ein freundlicher Helfer antwortet.


Beispiele aus der Praxis: Wie ich ChatGPT einsetze

ChatGPT ist besonders gut beim Schreiben und Erklären, aber auch bei schnell abrufbarem Wissen.

  • Koffein in einem Americano? Ich frage das Modell und bekomme ca. 63 mg als Antwort. Das ist verlässlich, weil solche Informationen oft und ausführlich im Internet stehen.
  • Gesundheitsfragen: Zum Beispiel fragte ich nach Medikamenten gegen eine laufende Nase. ChatGPT nannte mir bekannte Mittel wie DayQuil und NyQuil, ihre Inhaltsstoffe und Wirkung. Ich überprüfte die Details auf der Packung, denn die Modelle können immer mal etwas falsches „erfinden“. Für solche alltäglichen, nicht lebensbedrohlichen Fragen sind sie aber sehr hilfreich.

Wenn du mit den Modellen arbeitest, empfehle ich immer, bei Themenwechseln ein neues Gespräch zu beginnen, damit das Kontextfenster nicht überladen wird. Das spart Zeit und bessert die Antworten.

Vor allem solltest du auch wissen, mit welchem Modell du gerade sprichst und welche Funktionen dir zur Verfügung stehen.


Das Modell und die Preismodelle im Überblick

Nicht alle ChatGPT-Nutzer haben Zugriff auf dasselbe Modell:

  • Im kostenlosen Tarif gibt es häufig eine kleinere Version, genannt GPT-4 Mini, die nicht so kreativ oder präzise ist.
  • Das Plus-Abo für ca. 20 US-Dollar im Monat ermöglicht Zugriff auf das vollwertige GPT-4 mit begrenzter Nachrichtenanzahl.
  • Für intensive Nutzung gibt es das Pro-Abo für 100 Dollar und mehr mit höherem Nachrichtenlimit und erweiterten Funktionen.

Andere LLM-Anbieter haben ihre eigenen Preismodelle, zum Beispiel:

  • Claude von Anthropic mit Free- und Professional-Tarifen.
  • Gemini und Grok bieten ebenfalls unterschiedliche Tarife und Modelle an, oft mit „Thinking Mode“ für bessere Ergebnisse.

Ich nutze oft mehrere Modelle parallel – eine Art „LLM-Rat“ – um verschiedene Perspektiven auf meine Fragen zu bekommen. Das hilft mir bei wichtigen Entscheidungen oder um einfach gute Empfehlungen zu erhalten.


Thinking Models: Sprachmodelle mit zusätzlichem Verstand

Einige Sprachmodelle wurden mit Reinfocement Learning erweitert, um tieferes Denken zu simulieren. Diese nennt man auch Thinking Models. Sie können komplexe Probleme besser lösen, logisch denken und haben einen inneren Denkprozess ähnlich wie wir beim Problemlösen.

Sie sind ideal bei:

  • Programmierproblemen
  • Mathematischen Fragestellungen
  • Logischen Rätseln

Ein Beispiel: Ich hatte einen Fehler in meinem Code (Gradient Check) und GPT-4 ohne Thinking Mode gab allgemeine Tipps, löste das Problem aber nicht. Mit GPT-4 Pro im Thinking Mode durchdachte das Modell den Code Schritt für Schritt und fand den Fehler.

Diese Modelle brauchen länger für Antworten, da sie „nachdenken“ und viele Token erzeugen. Für einfache Fragen oder lockerere Aufgaben reicht ein normales Modell meistens aus. Wenn du aber wirklich einen komplizierten Fall hast, lohnt sich das Warten auf die Denkleistung.


Tools für LLMs: Internet-Suche, Deep Research und mehr

Das größte Problem vieler großer Sprachmodelle ist ihre Grenze durch den Wissensstand bei der Vortrainierung. Aktuelle Ereignisse kennt das Modell nicht.

Das löst man durch Tool-Nutzung:

Internet-Suche integriert

Bei passend eingerichteten Anwendungen kann das Modell eine Internet-Suche starten, wenn es merkt, dass die Antwort aktuell sein muss.

  • Das Modell gibt einen Suchbefehl ab.
  • Das System recherchiert im Web und lädt passende Webseiten in das Kontextfenster.
  • Anschließend beantwortet das Modell die Frage mit frischen Infos und gibt die Quellen an.

Beispiel: Ich wollte wissen, wann neue Folgen von White Lotus Staffel 3 erscheinen. Standardmäßig wusste das Modell das nicht, aber mit Suche zeigte es mir aktuelle Infos aus dem Web mit Quellen.

Nicht alle Anbieter unterstützen solche Suchfunktionen schon. ChatGPT, Perplexity.ai oder Grok sind führend bei der Integration.

Deep Research: Lange Recherchen mit Zitaten

Neu und spannend ist Deep Research:

  • Kombination aus Internetrecherche und langem, geduldigem Denken
  • Das Modell besucht viele Seiten, liest Studien, fasst zusammen und liefert detaillierte Berichte mit Quellenangaben
  • Dauert oft 10 Minuten oder länger

Ideal für komplexe Themen wie Produktvergleiche, wissenschaftliche Studien oder Unternehmensanalysen. Perfekt, wenn du tiefere Einblicke brauchst.

Aktuell ist Deep Research oft ein Feature der Pro-Varianten, z.B. bei ChatGPT Pro.


Eigene Dokumente hochladen und analysieren lassen

Sprachmodelle lassen sich auch mit deinen Unterlagen füttern.

Du kannst PDFs, Texte oder Bilder hochladen, die das Modell in den Kontext übernimmt.

Beispiele, die ich nutze:

  • Biologie-Studien lesen mit Claude 3.7 (PDF Hochladen, Q&A zum Text)
  • Kapitel aus historischen Büchern wie The Wealth of Nations zusammenfassen und diskutieren

So geht effektives Lernen in Teams mit KI-Unterstützung. Kleiner Nachteil: Die Bedienung ist oft noch nicht optimal, viele Nutzer kopieren und fügen Text manuell ein.


Programmieren mit LLMs und Python-Integration

Ein starkes Werkzeug ist die Kombination aus Sprachmodell und Programmier-Schnittstellen.

Zum Beispiel hat ChatGPT eine integrierte Python-Umgebung:

  • Bei einfachen Rechnungen liefert ChatGPT die Antwort direkt (Multiplikation 30*9 wird direkt korrekt beantwortet).
  • Bei komplexeren Berechnungen schreibt ChatGPT ein Python-Programm, das ausgeführt wird und das Ergebnis zurückliefert.
  • So vermeidet es Fehler, die reine Token-Schätzungen erzeugen können.

Andere Modelle haben unterschiedliche Möglichkeiten:

  • Grok beispielsweise hat keine Interpreter-Anbindung und macht Rechenfehler.
  • Claude nutzt manchmal JavaScript als Programmiersprache.

ChatGPT Advanced Data Analysis (ADA)

Even better: Mit ADA kann man Tabellen einlesen, Diagramme erstellen und vorhersagen treffen. Ich nutze es, um etwa Unternehmensbewertungen zu visualisieren.

Aber Achtung: Das Modell kann Annahmen treffen, die nicht immer explizit sind. Deshalb ist es wichtig, den generierten Code zu prüfen, bevor man ihm voll vertraut.


Code schreiben mit Tools wie Cursor

Professionelle Entwickler nutzen spezialisierte Anwendungen wie Cursor. Damit kann ich:

  • Große Code-Projekte aus der Entwicklungsumgebung per KI-Unterstützung bearbeiten.
  • Ganze React-Apps bauen lassen, nur mit Textkommandos.

Cursor verbindet sich mit Claude per API – ich brauche nur noch zu sagen, was ich will, und die KI schreibt den Code, testet ihn und erweitert ihn.

So wird aus dem Schreiben von Code eine Zusammenarbeit mit einem intelligenten Assistenten.


Stimmeingabe und Audioausgabe

Die Hälfte meiner Unterhaltungen mit LLMs mache ich inzwischen per Spracheingabe, vor allem auf dem Handy. Das geht meist über die Mikrofonfunktion und eine Transkription in Text.

  • Auf dem Handy bietet ChatGPT dafür eine eigene Eingabefunktion.
  • Auf dem Desktop nutze ich externe Programme wie Super Whisper, die meine Sprache in Text umwandeln.

Audioausgabe gibt es auch: Je nach App kann dir die Antwort vorgelesen werden.

Neu ist das True Audio, also eine native Audioverarbeitung im Modell:

  • ChatGPT kann direkt Audio-Signale empfangen und ausgeben.
  • So können Antworten in Stimmen mit verschiedenen Charakteren erfolgen (z.B. Yoda-Stimme oder Pirat).
  • Dabei bleibt das Gespräch dennoch interaktiv.

Im Alltag ist True Audio noch experimentell, aber es zeigt, wohin die Reise geht.


Podcasts mit NotebookLM und AI-generierte Audioinhalte

Google hat mit NotebookLM ein interessantes Tool:

  • Man lädt Quellen hoch (Texte, PDFs).
  • Das Modell erstellt daraus auf Wunsch automatisch einen individuellen Podcast.
  • Während des Podcasts kannst du auch Fragen stellen.

Ich nutze es, um unterwegs komplexe Themen in entspannter Form aufzunehmen – quasi mein persönlicher Vorleser.


Bilder, Video und Multimodalität

Genauso wie Text kann ein LLM Bilder und Videos in Token zerlegen und verarbeiten.

Ein paar Anwendungen:

  • Ich lade Bilder von Nahrungsergänzungen oder Bluttests hoch, lasse sie transkribieren und erkläre mir die Inhalte.
  • Memes oder Produktsymbole können erklärt oder gruppiert werden.
  • ChatGPT oder andere Modelle generieren auf Wunsch Bilder, z.B. über DALL·E 3 oder Ideogram.

Videoeingaben funktionieren vor allem auf mobilen Apps:

  • Kamera läuft, der Bot erkennt Objekte, Bücher, Geräte und beantwortet Fragen zu dem, was er sieht.
  • Das macht den Umgang für jede Zielgruppe erleichterter, z.B. für Ältere.

Videoerzeugung mit KI ist im Kommen, etwa mit V2 und OpenAur, aber für mich noch nicht so zentral.


Qualität des Lebens: Erinnerungen und individuelle Einstellungen in ChatGPT

ChatGPT verfügt über eine Speicherfunktion, mit der es sich wichtige Dinge merkt:

  • Du kannst dem Bot sagen, er soll sich Dinge über dich merken.
  • Dieses Wissen wird dann in zukünftige Chats einbezogen.
  • So entsteht ein personalisierter digitaler Assistent, der dich besser kennt.

Auch die Custom Instructions sind praktisch:

  • Du kannst dem Chatbot genau sagen, wie du angesprochen werden willst.
  • Oder dass er sich möglichst natürlich und nicht wie ein Büromitarbeiter ausdrücken soll.
  • Diese Einstellungen lassen sich jederzeit anpassen.

Außerdem lassen sich eigene GPTs anlegen:

  • Beispiel: Ein GPT, das speziell für Koreanisch-Lernen designed ist.
  • Es extrahiert Vokabeln, übersetzt mit Detailerklärungen und beantwortet Nachfragen.
  • So sparst du dir repetitive Eingaben und bekommst individuell zugeschnittene Unterstützung.

Zusammenfassung: LLMs richtig nutzen

Es gibt inzwischen eine lebendige, bunte Welt von großen Sprachmodellen und dazugehörigen Apps. ChatGPT bleibt der Klassiker, aber andere Anbieter kommen schnell nach und bieten eigene Vorteile.

Wichtig sind:

  • Wissen über die Modelle und Preise: Welches Modell nutze ich gerade? Welche Funktionalitäten hat es?
  • Thinking Modes ausprobieren: Für komplexe Aufgaben auf ein Denkmodell umstellen.
  • Werkzeuge nutzen: Internet-Suche, Deep Research, Programmier-Tools und Dateiuploads verstärken die Fähigkeiten deutlich.
  • Multimodal arbeiten: Sprach-, Bild- und Videoeingabe erweitern, wo möglich.
  • Personalisierung: Speicher, Anweisungen und eigene GPTs machen die Nutzung effektiver und angenehmer.

LLMs sind keine Wundermittel, aber durch kluge Nutzung lassen sich viele Aufgaben einfacher, schneller und oft auch besser lösen. Man muss wissen, wann die Grenzen sind und wie man am besten mit diesen mächtigen Werkzeugen zusammenarbeitet.

Wer neugierig bleibt und die Vielfalt ausprobiert, wird viel Freude und Nutzen aus diesen Technologien ziehen.

Viele Grüße
Dein Radar für die Tech-Welt
Team von TechObserver.de