Eine llms.txt ist eine Markdown-Datei im Stammverzeichnis deiner Website, die Large Language Models (LLMs) wie ChatGPT, Claude oder Perplexity eine strukturierte Zusammenfassung deiner Website liefert. Du gibst AI-Systemen damit genau die Informationen, die sie brauchen, um dein Unternehmen korrekt zu verstehen und in Antworten zu zitieren – ohne dass sie deine gesamte Website crawlen müssen.
Klingt technisch? Ist es nicht. In diesem Guide erfährst du alles, was du wissen musst: Was llms.txt ist, ob du sie brauchst und wie du sie in 15 Minuten erstellst.
Was ist llms.txt?
Die llms.txt-Spezifikation wurde von Jeremy Howard – Mitgründer von fast.ai und einer der einflussreichsten Personen im Bereich Deep Learning – im September 2024 vorgestellt. Die Idee ist einfach: Websites brauchen eine standardisierte Möglichkeit, AI-Modellen Kontext zu geben.
Stell dir folgende Analogie vor:
- robots.txt sagt Bots, wo sie nicht hingehen sollen.
- sitemap.xml sagt Suchmaschinen, welche Seiten existieren.
- llms.txt sagt AI-Modellen, was wichtig ist.
Laut einer Analyse von Originality.ai nutzten Ende 2025 bereits über 5.000 Websites eine llms.txt-Datei, darunter namhafte Unternehmen wie Anthropic, Cloudflare und Stripe (Quelle: Originality.ai, November 2025). Die Tendenz ist stark steigend.
Die offizielle Spezifikation findest du unter llmstxt.org. Sie definiert ein einfaches Format:
- H1-Titel – Name deiner Website oder deines Unternehmens
- Blockquote – Kurze Zusammenfassung in 1-2 Sätzen
- Sektionen – Thematisch gruppierte Links mit Beschreibungen
llms.txt vs. robots.txt vs. sitemap.xml
Viele verwechseln diese drei Dateien oder glauben, eine ersetzt die andere. Das stimmt nicht – sie ergänzen sich. Hier der direkte Vergleich:
| Eigenschaft | robots.txt | sitemap.xml | llms.txt |
|---|---|---|---|
| Zweck | Crawling steuern (erlauben/blockieren) | Alle URLs auflisten | AI-Modellen Kontext geben |
| Zielgruppe | Suchmaschinen-Crawler | Suchmaschinen-Crawler | Large Language Models |
| Format | Plaintext (eigene Syntax) | XML | Markdown |
| Seit wann | 1994 | 2005 | 2024 |
| Pflicht? | Nein, aber Standard | Nein, aber empfohlen | Nein, aber zunehmend sinnvoll |
| Dateigröße | Wenige Zeilen | Kann sehr groß sein | Kompakt (1-2 Seiten) |
| Speicherort | /robots.txt | /sitemap.xml | /llms.txt |
Wenn du mehr darüber erfahren willst, wie du deine robots.txt speziell für AI-Crawler konfigurierst, lies unseren Guide zur robots.txt-Optimierung für AI-Crawler.
Brauche ich eine llms.txt?
Ehrliche Antwort: Eine llms.txt ist kein Schalter, den du umlegst und plötzlich in jeder AI-Antwort auftauchst. Stand Februar 2026 gibt es keine offizielle Bestätigung von OpenAI, Anthropic oder Google, dass ihre Modelle llms.txt-Dateien systematisch bei der Antwortgenerierung auswerten.
Aber: Das Risiko ist null, der Aufwand minimal und der potenzielle Vorteil real.
Hier die Fakten:
Laut einer Studie von BrightEdge werden 2026 voraussichtlich 25–30 % aller Suchanfragen durch AI-generierte Antworten beantwortet – ohne dass der Nutzer eine Website besucht (Quelle: BrightEdge, Search Trends Report 2025). Das heißt: Wenn AI-Modelle dein Unternehmen nicht kennen oder falsch einordnen, verlierst du potenzielle Kunden.
Eine llms.txt hilft dabei auf zwei Ebenen:
- Beim Crawling: AI-Crawler wie GPTBot oder ClaudeBot können deine llms.txt lesen und bekommen sofort eine strukturierte Übersicht deines Angebots.
- Beim Retrieval: Tools wie Perplexity, die in Echtzeit Websites abrufen, können deine llms.txt als schnelle Zusammenfassung nutzen, statt deine gesamte Website zu parsen.
Laut dem Local Consumer Survey von BrightLocal nutzen mittlerweile 19 % der Verbraucher AI-Chatbots, um lokale Unternehmen zu finden (Quelle: BrightLocal, Local Consumer Review Survey 2025). Die Zahl steigt monatlich. Wenn du jetzt eine llms.txt einrichtest, bist du vorbereitet.
Mehr zum Thema AI-Sichtbarkeit für lokale Unternehmen findest du in unserem Leitfaden zu GEO – Generative Engine Optimization.
llms.txt erstellen – Schritt für Schritt
Schritt 1: Format verstehen
Eine llms.txt folgt einem einfachen Markdown-Schema:
Name deines Unternehmens
Kurze Beschreibung in 1-2 Sätzen.
Über uns
Leistungen
- Leistung 1: Kurzbeschreibung
- Leistung 2: Kurzbeschreibung
Kontakt
- Kontakt: Adresse, Telefon, E-Mail
Wichtige Regeln:
- Verwende absolut Markdown – kein HTML, kein JSON
- Halte es kompakt – maximal 1-2 Bildschirmseiten
- Nutze beschreibende Linktexte – nicht „Klick hier", sondern den tatsächlichen Seiteninhalt
- Schreibe für Maschinen – klare, faktische Sprache ohne Marketing-Floskeln
Schritt 2: Inhalte zusammenstellen
Bevor du loslegst, sammle folgende Informationen:
- Name und Art deines Unternehmens
- Standort(e) mit vollständiger Adresse
- Kernleistungen (max. 5-8)
- Öffnungszeiten
- Besonderheiten (Zertifizierungen, Auszeichnungen, Spezialisierungen)
- Wichtigste Seiten deiner Website
Schritt 3: llms.txt schreiben
Hier zwei konkrete Beispiele, die du als Vorlage verwenden kannst.
Beispiel: Zahnarztpraxis
Zahnarztpraxis Dr. Müller – Berlin Mitte
Zahnarztpraxis in Berlin Mitte mit Schwerpunkt auf Implantologie und ästhetischer Zahnmedizin. Seit 2008 für Patienten in Berlin-Mitte, Prenzlauer Berg und Friedrichshain.
Leistungen
- Implantologie: Zahnimplantate, All-on-4, Knochenaufbau. Dr. Müller ist zertifizierter Implantologe (DGI).
- Ästhetische Zahnmedizin: Veneers, Bleaching, Zahnkorrekturen.
- Prophylaxe: Professionelle Zahnreinigung, Parodontose-Behandlung.
- Angstpatienten: Behandlung unter Vollnarkose oder Lachgas-Sedierung.
Über uns
- Team: Dr. med. dent. Sarah Müller (Inhaberin, Spezialistin für Implantologie), 3 Zahnärzte, 8 Mitarbeiter.
- Praxis: Moderne Ausstattung mit DVT, Intraoralscanner, hauseigenem Dentallabor.
Kontakt
- Adresse: Friedrichstraße 123, 10117 Berlin
- Telefon: 030-12345678
- E-Mail: info@zahnarzt-mueller.de
- Öffnungszeiten: Mo-Fr 8:00-18:00, Sa nach Vereinbarung
- Online-Terminbuchung
Bewertungen
- Google: 4.8/5 (320+ Bewertungen)
- Jameda: 1.1 (Note, 200+ Bewertungen)
Beispiel: Restaurant
Trattoria Bella Napoli – München Schwabing
Authentisches italienisches Restaurant in München Schwabing. Hausgemachte Pasta, neapolitanische Pizza aus dem Holzofen und eine Weinkarte mit über 80 italienischen Weinen.
Speisekarte
- Mittagskarte: Wechselnde Tagesgerichte, Business Lunch ab 12,90€ (Mo-Fr 11:30-14:30).
- Abendkarte: Antipasti, Pasta, Pizza, Fleisch- und Fischgerichte. Hauptgerichte 14-28€.
- Weinkarte: 80+ italienische Weine, offene Weine ab 5,50€/Glas.
- Allergene & Zusatzstoffe: Vollständige Allergeninformationen für alle Gerichte.
Über uns
- Geschichte: Familienbetrieb seit 1998, Inhaber Giovanni Rossi aus Neapel.
- Räumlichkeiten: 80 Plätze innen, 40 Plätze auf der Terrasse (April-Oktober). Separater Raum für Veranstaltungen bis 30 Personen.
Reservierung & Kontakt
- Adresse: Leopoldstraße 45, 80802 München
- Telefon: 089-9876543
- Online-Reservierung
- Öffnungszeiten: Di-So 11:30-23:00, Montag Ruhetag
Schritt 4: Datei hochladen
Lade die Datei als llms.txt in das Stammverzeichnis (Root) deiner Website hoch:
https://deine-website.de/llms.txt
Bei den meisten CMS-Systemen funktioniert das so:
| CMS | Methode |
|---|---|
| WordPress | Datei per FTP/SFTP ins Root-Verzeichnis laden oder Plugin wie „Add Any File" nutzen |
| Webflow | Unter Hosting > Custom Code > llms.txt als statische Datei hinzufügen |
| Shopify | Unter Einstellungen > Dateien hochladen und als /llms.txt verlinken |
| Eigener Server | Datei direkt ins Web-Root legen (z.B. /var/www/html/llms.txt) |
Schritt 5: Testen
Nach dem Upload, prüfe:
- Rufe
https://deine-website.de/llms.txtim Browser auf – die Datei sollte als Plaintext angezeigt werden - Prüfe, dass der Content-Type
text/plainodertext/markdownist - Stelle sicher, dass die Datei nicht durch deine robots.txt blockiert wird
Die wichtigsten AI-Crawler und ihre User-Agents
Damit AI-Modelle deine llms.txt (und den Rest deiner Website) überhaupt lesen können, müssen ihre Crawler Zugang haben. Hier die wichtigsten AI-Crawler, die du kennen solltest:
| Crawler | Betreiber | User-Agent-String | Zweck |
|---|---|---|---|
| GPTBot | OpenAI | GPTBot/1.0 | Training und Browsing für ChatGPT |
| OAI-SearchBot | OpenAI | OAI-SearchBot/1.0 | ChatGPT Search (Echtzeit-Suche) |
| ClaudeBot | Anthropic | ClaudeBot/1.0 | Training für Claude |
| PerplexityBot | Perplexity | PerplexityBot | Echtzeit-Suche für Perplexity Answers |
| Google-Extended | Google-Extended | Training für Gemini | |
| Bytespider | ByteDance | Bytespider | Training und Suche |
| Applebot-Extended | Apple | Applebot-Extended | Apple Intelligence Features |
| Meta-ExternalAgent | Meta | Meta-ExternalAgent/1.0 | Training für Meta AI |
Eine detaillierte Anleitung zur Konfiguration findest du in unserem robots.txt-Guide für AI-Crawler.
robots.txt für AI optimieren
Deine llms.txt bringt wenig, wenn AI-Crawler deine Website nicht besuchen dürfen. Hier ist eine empfohlene robots.txt-Konfiguration, die alle wichtigen AI-Crawler erlaubt:
Empfohlene Konfiguration: Alle AI-Crawler erlauben
Suchmaschinen-Crawler
User-agent: Googlebot
Allow: /
User-agent: Bingbot Allow: /
AI-Crawler – alle erlauben
User-agent: GPTBot
Allow: /
User-agent: OAI-SearchBot Allow: /
User-agent: ClaudeBot Allow: /
User-agent: PerplexityBot Allow: /
User-agent: Google-Extended Allow: /
User-agent: Applebot-Extended Allow: /
Allgemeine Regel
User-agent: *
Allow: /
Sitemap
Sitemap: https://deine-website.de/sitemap.xml
Alternative: Bestimmte AI-Crawler blockieren
Falls du einzelne Crawler ausschließen möchtest (z.B. weil du nicht willst, dass dein Content für Training verwendet wird, aber trotzdem in AI-Suchen auftauchen möchtest):
Training-Crawler blockieren
User-agent: GPTBot
Disallow: /
User-agent: Google-Extended Disallow: /
Such-Crawler erlauben
User-agent: OAI-SearchBot
Allow: /
User-agent: PerplexityBot Allow: /
User-agent: ClaudeBot Allow: /
Unsere Empfehlung für lokale Unternehmen: Erlaube alle AI-Crawler. Dein Wettbewerbsvorteil liegt nicht in deinem Website-Content, sondern in deiner Dienstleistung. Je mehr AI-Systeme dein Unternehmen kennen, desto besser.
Laut dem Edelman Trust Barometer 2025 vertrauen 64 % der Befragten AI-Empfehlungen bei der Suche nach lokalen Dienstleistungen (Quelle: Edelman Trust Barometer, 2025). Du willst, dass AI-Systeme dich empfehlen können – also gib ihnen Zugang.
Checkliste: llms.txt in 15 Minuten einrichten
Hier deine Schritt-für-Schritt-Checkliste:
- [ ] Unternehmensinformationen sammeln (Name, Adresse, Leistungen, Öffnungszeiten)
- [ ] llms.txt in Markdown schreiben (H1, Blockquote, Sektionen mit Links)
- [ ] Datei als
llms.txtins Root-Verzeichnis hochladen - [ ] Im Browser testen:
https://deine-website.de/llms.txt - [ ] robots.txt prüfen: AI-Crawler nicht blockiert?
- [ ] Bonus: Schema Markup einrichten für noch bessere AI-Sichtbarkeit
Häufig gestellte Fragen
Ist llms.txt ein offizieller Standard?
Nein. Die llms.txt-Spezifikation ist ein Community-Vorschlag von Jeremy Howard, kein offizieller Webstandard wie robots.txt (RFC 9309). Trotzdem wird sie von immer mehr Websites und Tools unterstützt. Die Spezifikation ist unter llmstxt.org dokumentiert und wird aktiv weiterentwickelt.
Lesen ChatGPT und Claude meine llms.txt wirklich?
Es gibt keine offizielle Bestätigung, dass LLMs die Datei bei der Antwortgenerierung systematisch auswerten. Allerdings können AI-Crawler die Datei beim Crawling erfassen, und Tools mit Echtzeit-Suche (wie Perplexity oder ChatGPT Search) können sie beim Abruf deiner Website lesen. Der Aufwand ist minimal, also: ja, einrichten.
Kann llms.txt mein SEO-Ranking beeinflussen?
Nein, nicht direkt. Google hat nicht bestätigt, dass llms.txt ein Ranking-Faktor ist. Es geht um AI-Sichtbarkeit, nicht um klassisches SEO. Beides ergänzt sich aber – mehr dazu in unserem GEO-Guide.
Wie oft sollte ich meine llms.txt aktualisieren?
Immer wenn sich wesentliche Informationen ändern: neue Leistungen, geänderte Öffnungszeiten, neue Standorte. Eine veraltete llms.txt ist schlimmer als keine, weil sie AI-Modelle mit falschen Informationen versorgt.
Brauche ich llms.txt UND Schema Markup?
Idealerweise ja. Die llms.txt gibt AI-Modellen eine menschenlesbare Zusammenfassung. Schema Markup liefert maschinenlesbare, strukturierte Daten. Beides zusammen maximiert deine Chancen, in AI-Antworten korrekt und vollständig dargestellt zu werden.
Kann ich llms.txt für mehrere Sprachen erstellen?
Ja. Du kannst zusätzliche Dateien wie llms-en.txt oder llms-fr.txt erstellen. Die Hauptdatei sollte aber immer /llms.txt heißen und in der Hauptsprache deiner Website geschrieben sein.
Was ist der Unterschied zwischen llms.txt und llms-full.txt?
Die Spezifikation sieht optional eine llms-full.txt vor, die den vollständigen Inhalt deiner Website in Markdown enthält. Die llms.txt ist die kompakte Version. Für die meisten lokalen Unternehmen reicht die llms.txt völlig aus.
Nächster Schritt: Deine AI-Sichtbarkeit prüfen
Du hast jetzt alles, was du brauchst, um deine llms.txt zu erstellen. Aber wie sichtbar ist dein Unternehmen tatsächlich für AI-Systeme? Welche Informationen haben ChatGPT, Claude und Perplexity über dich – und sind sie korrekt?
Jetzt kostenlosen AI-Sichtbarkeits-Audit anfordern – wir prüfen, wie dein Unternehmen in AI-Antworten dargestellt wird und was du konkret verbessern kannst.