Eine llms.txt ist eine Markdown-Datei im Stammverzeichnis deiner Website, die Large Language Models (LLMs) wie ChatGPT, Claude oder Perplexity eine strukturierte Zusammenfassung deiner Website liefert. Du gibst AI-Systemen damit genau die Informationen, die sie brauchen, um dein Unternehmen korrekt zu verstehen und in Antworten zu zitieren – ohne dass sie deine gesamte Website crawlen müssen.

Klingt technisch? Ist es nicht. In diesem Guide erfährst du alles, was du wissen musst: Was llms.txt ist, ob du sie brauchst und wie du sie in 15 Minuten erstellst.

Was ist llms.txt?

Die llms.txt-Spezifikation wurde von Jeremy Howard – Mitgründer von fast.ai und einer der einflussreichsten Personen im Bereich Deep Learning – im September 2024 vorgestellt. Die Idee ist einfach: Websites brauchen eine standardisierte Möglichkeit, AI-Modellen Kontext zu geben.

Stell dir folgende Analogie vor:

  • robots.txt sagt Bots, wo sie nicht hingehen sollen.
  • sitemap.xml sagt Suchmaschinen, welche Seiten existieren.
  • llms.txt sagt AI-Modellen, was wichtig ist.
Eine llms.txt-Datei ist in Markdown geschrieben und enthält eine kompakte Zusammenfassung deiner Website: Wer du bist, was du anbietest, welche Seiten relevant sind. Das Format ist bewusst einfach gehalten, weil LLMs Markdown nativ verstehen und verarbeiten können.

Laut einer Analyse von Originality.ai nutzten Ende 2025 bereits über 5.000 Websites eine llms.txt-Datei, darunter namhafte Unternehmen wie Anthropic, Cloudflare und Stripe (Quelle: Originality.ai, November 2025). Die Tendenz ist stark steigend.

Die offizielle Spezifikation findest du unter llmstxt.org. Sie definiert ein einfaches Format:

  1. H1-Titel – Name deiner Website oder deines Unternehmens
  2. Blockquote – Kurze Zusammenfassung in 1-2 Sätzen
  3. Sektionen – Thematisch gruppierte Links mit Beschreibungen
Das war's. Keine komplizierte Syntax, kein JSON, kein XML. Einfach Markdown.

llms.txt vs. robots.txt vs. sitemap.xml

Viele verwechseln diese drei Dateien oder glauben, eine ersetzt die andere. Das stimmt nicht – sie ergänzen sich. Hier der direkte Vergleich:

Eigenschaftrobots.txtsitemap.xmlllms.txt
ZweckCrawling steuern (erlauben/blockieren)Alle URLs auflistenAI-Modellen Kontext geben
ZielgruppeSuchmaschinen-CrawlerSuchmaschinen-CrawlerLarge Language Models
FormatPlaintext (eigene Syntax)XMLMarkdown
Seit wann199420052024
Pflicht?Nein, aber StandardNein, aber empfohlenNein, aber zunehmend sinnvoll
DateigrößeWenige ZeilenKann sehr groß seinKompakt (1-2 Seiten)
Speicherort/robots.txt/sitemap.xml/llms.txt
Die goldene Regel: Nutze alle drei. Die robots.txt steuert, wer crawlen darf. Die sitemap.xml zeigt, welche Seiten existieren. Die llms.txt erklärt, was wirklich zählt.

Wenn du mehr darüber erfahren willst, wie du deine robots.txt speziell für AI-Crawler konfigurierst, lies unseren Guide zur robots.txt-Optimierung für AI-Crawler.

Brauche ich eine llms.txt?

Ehrliche Antwort: Eine llms.txt ist kein Schalter, den du umlegst und plötzlich in jeder AI-Antwort auftauchst. Stand Februar 2026 gibt es keine offizielle Bestätigung von OpenAI, Anthropic oder Google, dass ihre Modelle llms.txt-Dateien systematisch bei der Antwortgenerierung auswerten.

Aber: Das Risiko ist null, der Aufwand minimal und der potenzielle Vorteil real.

Hier die Fakten:

Laut einer Studie von BrightEdge werden 2026 voraussichtlich 25–30 % aller Suchanfragen durch AI-generierte Antworten beantwortet – ohne dass der Nutzer eine Website besucht (Quelle: BrightEdge, Search Trends Report 2025). Das heißt: Wenn AI-Modelle dein Unternehmen nicht kennen oder falsch einordnen, verlierst du potenzielle Kunden.

Eine llms.txt hilft dabei auf zwei Ebenen:

  1. Beim Crawling: AI-Crawler wie GPTBot oder ClaudeBot können deine llms.txt lesen und bekommen sofort eine strukturierte Übersicht deines Angebots.
  2. Beim Retrieval: Tools wie Perplexity, die in Echtzeit Websites abrufen, können deine llms.txt als schnelle Zusammenfassung nutzen, statt deine gesamte Website zu parsen.
Für lokale Unternehmen ist die llms.txt besonders sinnvoll. Warum? Weil lokale Websites oft wenig Content haben. Eine Zahnarztpraxis hat vielleicht 5-10 Unterseiten. Eine llms.txt fasst alles Wichtige auf einer Seite zusammen und gibt AI-Modellen den Kontext, den sie brauchen: Standort, Leistungen, Öffnungszeiten, Besonderheiten.

Laut dem Local Consumer Survey von BrightLocal nutzen mittlerweile 19 % der Verbraucher AI-Chatbots, um lokale Unternehmen zu finden (Quelle: BrightLocal, Local Consumer Review Survey 2025). Die Zahl steigt monatlich. Wenn du jetzt eine llms.txt einrichtest, bist du vorbereitet.

Mehr zum Thema AI-Sichtbarkeit für lokale Unternehmen findest du in unserem Leitfaden zu GEO – Generative Engine Optimization.

llms.txt erstellen – Schritt für Schritt

Schritt 1: Format verstehen

Eine llms.txt folgt einem einfachen Markdown-Schema:

Name deines Unternehmens

Kurze Beschreibung in 1-2 Sätzen.

Über uns

Leistungen

Kontakt

Wichtige Regeln:
  • Verwende absolut Markdown – kein HTML, kein JSON
  • Halte es kompakt – maximal 1-2 Bildschirmseiten
  • Nutze beschreibende Linktexte – nicht „Klick hier", sondern den tatsächlichen Seiteninhalt
  • Schreibe für Maschinen – klare, faktische Sprache ohne Marketing-Floskeln

Schritt 2: Inhalte zusammenstellen

Bevor du loslegst, sammle folgende Informationen:

  1. Name und Art deines Unternehmens
  2. Standort(e) mit vollständiger Adresse
  3. Kernleistungen (max. 5-8)
  4. Öffnungszeiten
  5. Besonderheiten (Zertifizierungen, Auszeichnungen, Spezialisierungen)
  6. Wichtigste Seiten deiner Website

Schritt 3: llms.txt schreiben

Hier zwei konkrete Beispiele, die du als Vorlage verwenden kannst.

Beispiel: Zahnarztpraxis

Zahnarztpraxis Dr. Müller – Berlin Mitte

Zahnarztpraxis in Berlin Mitte mit Schwerpunkt auf Implantologie und ästhetischer Zahnmedizin. Seit 2008 für Patienten in Berlin-Mitte, Prenzlauer Berg und Friedrichshain.

Leistungen

Über uns

  • Team: Dr. med. dent. Sarah Müller (Inhaberin, Spezialistin für Implantologie), 3 Zahnärzte, 8 Mitarbeiter.
  • Praxis: Moderne Ausstattung mit DVT, Intraoralscanner, hauseigenem Dentallabor.

Kontakt

  • Adresse: Friedrichstraße 123, 10117 Berlin
  • Telefon: 030-12345678
  • E-Mail: info@zahnarzt-mueller.de
  • Öffnungszeiten: Mo-Fr 8:00-18:00, Sa nach Vereinbarung
  • Online-Terminbuchung

Bewertungen

  • Google: 4.8/5 (320+ Bewertungen)
  • Jameda: 1.1 (Note, 200+ Bewertungen)

Beispiel: Restaurant

Trattoria Bella Napoli – München Schwabing

Authentisches italienisches Restaurant in München Schwabing. Hausgemachte Pasta, neapolitanische Pizza aus dem Holzofen und eine Weinkarte mit über 80 italienischen Weinen.

Speisekarte

  • Mittagskarte: Wechselnde Tagesgerichte, Business Lunch ab 12,90€ (Mo-Fr 11:30-14:30).
  • Abendkarte: Antipasti, Pasta, Pizza, Fleisch- und Fischgerichte. Hauptgerichte 14-28€.
  • Weinkarte: 80+ italienische Weine, offene Weine ab 5,50€/Glas.
  • Allergene & Zusatzstoffe: Vollständige Allergeninformationen für alle Gerichte.

Über uns

  • Geschichte: Familienbetrieb seit 1998, Inhaber Giovanni Rossi aus Neapel.
  • Räumlichkeiten: 80 Plätze innen, 40 Plätze auf der Terrasse (April-Oktober). Separater Raum für Veranstaltungen bis 30 Personen.

Reservierung & Kontakt

  • Adresse: Leopoldstraße 45, 80802 München
  • Telefon: 089-9876543
  • Online-Reservierung
  • Öffnungszeiten: Di-So 11:30-23:00, Montag Ruhetag

Schritt 4: Datei hochladen

Lade die Datei als llms.txt in das Stammverzeichnis (Root) deiner Website hoch:

https://deine-website.de/llms.txt

Bei den meisten CMS-Systemen funktioniert das so:

CMSMethode
WordPressDatei per FTP/SFTP ins Root-Verzeichnis laden oder Plugin wie „Add Any File" nutzen
WebflowUnter Hosting > Custom Code > llms.txt als statische Datei hinzufügen
ShopifyUnter Einstellungen > Dateien hochladen und als /llms.txt verlinken
Eigener ServerDatei direkt ins Web-Root legen (z.B. /var/www/html/llms.txt)
Laut einer Erhebung von W3Techs nutzen rund 43 % aller Websites WordPress (Quelle: W3Techs, Februar 2026). Für WordPress-Nutzer gibt es mittlerweile Plugins wie „LLMs.txt Generator", die die Datei automatisch aus den Seiteninhalten erstellen.

Schritt 5: Testen

Nach dem Upload, prüfe:

  1. Rufe https://deine-website.de/llms.txt im Browser auf – die Datei sollte als Plaintext angezeigt werden
  2. Prüfe, dass der Content-Type text/plain oder text/markdown ist
  3. Stelle sicher, dass die Datei nicht durch deine robots.txt blockiert wird

Die wichtigsten AI-Crawler und ihre User-Agents

Damit AI-Modelle deine llms.txt (und den Rest deiner Website) überhaupt lesen können, müssen ihre Crawler Zugang haben. Hier die wichtigsten AI-Crawler, die du kennen solltest:

CrawlerBetreiberUser-Agent-StringZweck
GPTBotOpenAIGPTBot/1.0Training und Browsing für ChatGPT
OAI-SearchBotOpenAIOAI-SearchBot/1.0ChatGPT Search (Echtzeit-Suche)
ClaudeBotAnthropicClaudeBot/1.0Training für Claude
PerplexityBotPerplexityPerplexityBotEchtzeit-Suche für Perplexity Answers
Google-ExtendedGoogleGoogle-ExtendedTraining für Gemini
BytespiderByteDanceBytespiderTraining und Suche
Applebot-ExtendedAppleApplebot-ExtendedApple Intelligence Features
Meta-ExternalAgentMetaMeta-ExternalAgent/1.0Training für Meta AI
Laut einer Analyse von Vercel blockieren rund 26 % aller Top-1.000-Websites mindestens einen AI-Crawler über ihre robots.txt (Quelle: Vercel, Web Crawler Analysis 2025). Das ist eine bewusste Entscheidung – aber wenn du in AI-Antworten auftauchen willst, solltest du diese Crawler erlauben.

Eine detaillierte Anleitung zur Konfiguration findest du in unserem robots.txt-Guide für AI-Crawler.

robots.txt für AI optimieren

Deine llms.txt bringt wenig, wenn AI-Crawler deine Website nicht besuchen dürfen. Hier ist eine empfohlene robots.txt-Konfiguration, die alle wichtigen AI-Crawler erlaubt:

Empfohlene Konfiguration: Alle AI-Crawler erlauben

Suchmaschinen-Crawler

User-agent: Googlebot Allow: /

User-agent: Bingbot Allow: /

AI-Crawler – alle erlauben

User-agent: GPTBot Allow: /

User-agent: OAI-SearchBot Allow: /

User-agent: ClaudeBot Allow: /

User-agent: PerplexityBot Allow: /

User-agent: Google-Extended Allow: /

User-agent: Applebot-Extended Allow: /

Allgemeine Regel

User-agent: * Allow: /

Sitemap

Sitemap: https://deine-website.de/sitemap.xml

Alternative: Bestimmte AI-Crawler blockieren

Falls du einzelne Crawler ausschließen möchtest (z.B. weil du nicht willst, dass dein Content für Training verwendet wird, aber trotzdem in AI-Suchen auftauchen möchtest):

Training-Crawler blockieren

User-agent: GPTBot Disallow: /

User-agent: Google-Extended Disallow: /

Such-Crawler erlauben

User-agent: OAI-SearchBot Allow: /

User-agent: PerplexityBot Allow: /

User-agent: ClaudeBot Allow: /

Unsere Empfehlung für lokale Unternehmen: Erlaube alle AI-Crawler. Dein Wettbewerbsvorteil liegt nicht in deinem Website-Content, sondern in deiner Dienstleistung. Je mehr AI-Systeme dein Unternehmen kennen, desto besser.

Laut dem Edelman Trust Barometer 2025 vertrauen 64 % der Befragten AI-Empfehlungen bei der Suche nach lokalen Dienstleistungen (Quelle: Edelman Trust Barometer, 2025). Du willst, dass AI-Systeme dich empfehlen können – also gib ihnen Zugang.

Checkliste: llms.txt in 15 Minuten einrichten

Hier deine Schritt-für-Schritt-Checkliste:

  • [ ] Unternehmensinformationen sammeln (Name, Adresse, Leistungen, Öffnungszeiten)
  • [ ] llms.txt in Markdown schreiben (H1, Blockquote, Sektionen mit Links)
  • [ ] Datei als llms.txt ins Root-Verzeichnis hochladen
  • [ ] Im Browser testen: https://deine-website.de/llms.txt
  • [ ] robots.txt prüfen: AI-Crawler nicht blockiert?
  • [ ] Bonus: Schema Markup einrichten für noch bessere AI-Sichtbarkeit

Häufig gestellte Fragen

Ist llms.txt ein offizieller Standard?

Nein. Die llms.txt-Spezifikation ist ein Community-Vorschlag von Jeremy Howard, kein offizieller Webstandard wie robots.txt (RFC 9309). Trotzdem wird sie von immer mehr Websites und Tools unterstützt. Die Spezifikation ist unter llmstxt.org dokumentiert und wird aktiv weiterentwickelt.

Lesen ChatGPT und Claude meine llms.txt wirklich?

Es gibt keine offizielle Bestätigung, dass LLMs die Datei bei der Antwortgenerierung systematisch auswerten. Allerdings können AI-Crawler die Datei beim Crawling erfassen, und Tools mit Echtzeit-Suche (wie Perplexity oder ChatGPT Search) können sie beim Abruf deiner Website lesen. Der Aufwand ist minimal, also: ja, einrichten.

Kann llms.txt mein SEO-Ranking beeinflussen?

Nein, nicht direkt. Google hat nicht bestätigt, dass llms.txt ein Ranking-Faktor ist. Es geht um AI-Sichtbarkeit, nicht um klassisches SEO. Beides ergänzt sich aber – mehr dazu in unserem GEO-Guide.

Wie oft sollte ich meine llms.txt aktualisieren?

Immer wenn sich wesentliche Informationen ändern: neue Leistungen, geänderte Öffnungszeiten, neue Standorte. Eine veraltete llms.txt ist schlimmer als keine, weil sie AI-Modelle mit falschen Informationen versorgt.

Brauche ich llms.txt UND Schema Markup?

Idealerweise ja. Die llms.txt gibt AI-Modellen eine menschenlesbare Zusammenfassung. Schema Markup liefert maschinenlesbare, strukturierte Daten. Beides zusammen maximiert deine Chancen, in AI-Antworten korrekt und vollständig dargestellt zu werden.

Kann ich llms.txt für mehrere Sprachen erstellen?

Ja. Du kannst zusätzliche Dateien wie llms-en.txt oder llms-fr.txt erstellen. Die Hauptdatei sollte aber immer /llms.txt heißen und in der Hauptsprache deiner Website geschrieben sein.

Was ist der Unterschied zwischen llms.txt und llms-full.txt?

Die Spezifikation sieht optional eine llms-full.txt vor, die den vollständigen Inhalt deiner Website in Markdown enthält. Die llms.txt ist die kompakte Version. Für die meisten lokalen Unternehmen reicht die llms.txt völlig aus.

Nächster Schritt: Deine AI-Sichtbarkeit prüfen

Du hast jetzt alles, was du brauchst, um deine llms.txt zu erstellen. Aber wie sichtbar ist dein Unternehmen tatsächlich für AI-Systeme? Welche Informationen haben ChatGPT, Claude und Perplexity über dich – und sind sie korrekt?

Jetzt kostenlosen AI-Sichtbarkeits-Audit anfordern – wir prüfen, wie dein Unternehmen in AI-Antworten dargestellt wird und was du konkret verbessern kannst.