GEO Academy

Certified GEO
Practitioner

Der umfassende GEO-Kurs von TrueSource AI. 6 Module. Praxisorientiert. Tool-agnostisch. Lernen Sie, Marken sichtbar zu machen für ChatGPT, Perplexity und Gemini.

Kurs starten →
6
Module
~40
Unterrichtseinheiten
31
Wissenschaftliche Quellen
30
Prüfungsfragen

Curriculum

6 Module — Von Strategie bis Execution

Jedes Modul baut auf dem vorherigen auf. Von der strategischen Einordnung über die technische Implementation bis zum eigenständigen Praxis-Audit.

Zertifizierung

Was Sie erhalten

📋

Wissenstest

30 Multiple-Choice-Fragen, 60 Minuten, 70% Bestehensgrenze.

🔍

Praxis-Audit

Eigenständiges GEO-Audit einer realen Website mit Management-Roadmap.

🎖️

Zertifikat & Badge

Digitales PDF-Zertifikat + verifizierbarer LinkedIn-Badge.

Zielgruppen

SEO-Spezialisten

Sie optimieren bereits für Google — jetzt erweitern Sie Ihre Skills auf ChatGPT, Perplexity und Gemini. GEO wird die wichtigste Ergänzung Ihres Skillsets.

Marketing-Manager

Sie verantworten die digitale Sichtbarkeit Ihrer Marke. Dieses Programm gibt Ihnen das Framework, um KI-Visibility als strategischen Kanal zu etablieren.

Agentur-Teams

Positionieren Sie Ihre Agentur als GEO-Experte. Die Agency License (5 Seats) ermöglicht die Ausbildung des gesamten Teams.

CTOs & Tech Leads

Verstehen Sie die technischen Anforderungen (JSON-LD, robots.txt, Edge Routing) und integrieren Sie GEO in Ihre Entwicklungs-Pipeline.

Häufige Fragen

Brauche ich Programmierkenntnisse?
Nein. Der Kurs ist so aufgebaut, dass Sie die Konzepte auch ohne Coding-Background verstehen. Code-Beispiele werden erklärt und können kopiert werden.
Wie lange habe ich Zugang?
Der Zugang zu den Kursmodulen ist zeitlich unbegrenzt. Wir empfehlen eine Bearbeitung in 2-4 Wochen.
Was passiert, wenn ich die Prüfung nicht bestehe?
Sie können die Prüfung nach einer Wartezeit von 7 Tagen wiederholen. Die Fragen werden zufällig aus einem erweiterten Pool gezogen.
Was genau bekomme ich nach Abschluss?
Sie erhalten ein digitales Abschlusszertifikat von TrueSource AI als PDF. Dieses bestätigt, dass Sie den Kurs erfolgreich abgeschlossen und die Prüfung bestanden haben. Es handelt sich um einen Kursnachweis, nicht um eine staatlich anerkannte Zertifizierung.
Gibt es eine Re-Zertifizierung?
Ja, jährlich (€149). Sie erhalten ein Update-Modul mit den neuesten Entwicklungen und einen erneuerten Badge.

31 wissenschaftliche Quellen

Dieser Kurs basiert auf aktueller Informatik-Forschung, LLM-Architekturstudien und etablierten Web-Standards. Alle arXiv-Quellen wurden am 14. März 2026 verifiziert.

Teil 1: Generative Engine Optimization & Such-Paradigmen (10 Papers)
  1. Aggarwal, P. et al. (Princeton University), 2023. "GEO: Generative Engine Optimization". arXiv:2311.09735Foundation-Paper, das den Begriff GEO prägte.
  2. Chen, M. et al., 2025. "Generative Engine Optimization: How to Dominate AI Search". arXiv:2509.08919
  3. Zhang, F. et al. (Pinterest AI Labs), 2026. "Generative Engine Optimization: A VLM and Agent Framework for Pinterest Acquisition Growth". arXiv:2602.02961
  4. Bagga, P. S. et al., 2025. "E-GEO: A Testbed for Generative Engine Optimization in E-Commerce". arXiv:2511.20867
  5. Zhuang, Y. et al., 2024. "Adversarial Search Engine Optimization for Large Language Models". arXiv:2406.18382
  6. Bardas, N. et al., 2025. "White Hat Search Engine Optimization using Large Language Models". arXiv:2502.07315
  7. Su, Y. et al. (Carnegie Mellon University), 2025. "What Generative Search Engines Like and How to Optimize Web Content Cooperatively". arXiv:2510.11438
  8. Anonym, 2025. "Caption Injection for Optimization in Generative Search Engine". arXiv:2511.04080
  9. Del Tredici, M. et al., 2025. "C-SEO Bench: Does Conversational SEO Work?". arXiv:2506.11097
  10. Anonym, 2025. "AI Answer Engine Citation Behavior: An Empirical Analysis of the GEO-16 Framework". arXiv:2509.10762
Teil 2: Retrieval-Augmented Generation (RAG) (7 Papers)
  1. Lewis, P. et al. (Facebook AI), 2020. "Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks". arXiv:2005.11401Das Grundlagen-Paper zur RAG-Architektur.
  2. Gao, Y. et al., 2023. "Retrieval-Augmented Generation for Large Language Models: A Survey". arXiv:2312.10997
  3. Guu, K. et al. (Google Research), 2020. "REALM: Retrieval-Augmented Language Model Pre-training". arXiv:2002.08909
  4. Nakano, R. et al. (OpenAI), 2021. "WebGPT: Browser-assisted question-answering with human feedback". arXiv:2112.09332
  5. Borgeaud, S. et al. (DeepMind), 2022. "Improving language models by retrieving from trillions of tokens" (RETRO). PMLR 162:2206-2240.
  6. Kim, H. et al., 2025. "Rethinking Retrieval-Augmented Generation for Medicine". arXiv:2511.06738
  7. Brown, A. et al., 2025. "A Systematic Literature Review of Retrieval-Augmented Generation". arXiv:2508.06401
Teil 3: Semantic Web, Structured Data & JSON-LD (5 Standards)
  1. Howard, Jeremy (Answer.AI), 2024. "/llms.txt — a proposal to provide information to help LLMs use websites". llmstxt.org
  2. W3C Consortium, 2020. "JSON-LD 1.1: A JSON-based Serialization for Linked Data". W3C Recommendation.
  3. Guha, R. V., Brickley, D. (2016). "Schema.org: Evolution of Structured Data on the Web". Communications of the ACM, Vol 59, Issue 2.
  4. Zhu, Y. et al., 2025. "LLM-empowered Knowledge Graph Construction: A Survey". arXiv:2510.20345
  5. Ubl, Malte (Vercel CTO), 2025. "Proposal for inline LLM instructions in HTML based on llms.txt". Vercel Engineering Blog.
Teil 4: KI-Crawler, Protokolle & Middleware (5 Specs)
  1. Koster, M. et al. (2022). "Robots Exclusion Protocol". IETF RFC 9309.
  2. Tornese, L. et al., 2025. "Is Misinformation More Open? A Study of robots.txt Gatekeeping on the Web". arXiv:2510.1031560% seriöser Newsseiten blockieren KI-Crawler, nur 9% der Misinformations-Seiten.
  3. OpenAI Platform Documentation, 2023. "GPTBot and ChatGPT-User Web Crawler Identification".
  4. Anthropic Developer Documentation, 2024. "ClaudeBot Crawling Specifications".
  5. Cloudflare Developer Docs, 2024. "Declaring your AI bot policies & Bot Management".
Teil 5: LLM Cognitive Behavior & Trust (4 Papers)
  1. Ji, Z. et al., 2023. "Survey of Hallucination in Natural Language Generation". ACM Computing Surveys, Vol 55. DOI: 10.1145/3571730.
  2. Vaswani, A. et al. (Google Brain), 2017. "Attention Is All You Need". arXiv:1706.03762Basis-Paper der Transformer-Architektur.
  3. Ouyang, L. et al. (OpenAI), 2022. "Training language models to follow instructions with human feedback" (InstructGPT). arXiv:2203.02155
  4. Schick, T. et al. (Meta AI), 2023. "Toolformer: Language Models Can Teach Themselves to Use Tools". arXiv:2302.04761

Bereit für den Kurs?

Starten Sie jetzt mit Modul 1 und werden Sie Certified GEO Practitioner.

Modul 1 starten →