SMX 2026: 7 wichtige Trends für SEO, SEA und KI-Suche

Auch dieses Jahr waren unsere Experten aus dem Performance-Team wieder für euch auf der SMX in München unterwegs. Die internationale Konferenz gilt als einer der wichtigsten Termine für die Zukunft von SEO, SEA und KI-Suche. Aber wir wollen gar nicht lange drum herumreden: Hier kommen die spannendsten Erkenntnisse und Trends von der SMX 2026.

  1. SEO bildet weiterhin die Grundlage für „GEO“
  2. E-Commerce in KI-Suchen ist die Zukunft – aber nicht die Gegenwart
  3. Probiere Claude aus!
  4. Nutzersignale sind das Maß der Dinge.
  5. Bot-Traffic nervt, aber Du brauchst ihn trotzdem.
  6. Vorsicht mit KI-generiertem Text-Content.
  7. Alle Jahre wieder: Stärke Deine Brand.

1. Professionelles SEO bildet weiterhin die Grundlage für „GEO“.

Im Bereich von KI-Suchen haben sich mittlerweile unterschiedliche Begriffe etbaliert: AEO – Answer Engine Optimization (Optimierung für direkte Antworten, z.B. in ChatGPT, Perplexity), LLMO – Large Language Model Optimization (Optimierung speziell für LLMs), AIО – AI Overview Optimization (speziell auf Googles AI Overviews ausgerichtet) oder eben übergreifend „GEO“ (Generative Experience Optimization).

Natürlich war die Bedeutung und Beeinflussung von KI-Suche eines der dominierenden Themen auf der diesjährigen SMX. Dabei wurde klar: Die Algorithmen der aktuell genutzten KI-Such-Agenten unterscheiden sich teilweise erheblich und unterliegen einer permanenten Weiterentwicklung. Ein einheitlicher Standard existiert nicht. Gut lesbare Seiten und relevanter Content bilden daher nach wie vor die Grundlage für Rankings in sämtlichen Suchmaschinen – egal ob klassisch oder KI-gestützt. Daraus ergibt sich:

  • Die beste Strategie für erfolgreiches GEO bleibt die konsequente Anwendung der bewährten SEO-Strategien und Techniken.
  • Die Annahme, spezielle GEO-Maßnahmen wie etwa die Implementierung einer llm.txt seien der Schlüssel zu erfolgreichem GEO, wurden mehrheitlich belächelt oder sogar als kontraproduktiv eingestuft.
  • Strukturierte Daten sind dagegen ein wichtiger Schlüssel für gutes GEO.
  • Java-Skript ist zu vermeiden (die gängigen KI-Tools können Java-Skript nicht dekodieren).
  • Bot-Traffic auf der eigenen Seite erlauben. Er ist die Grundlage für das Training von KI-Suchmaschinen und bildet eine wichtige Voraussetzung für die Erwähnung in den KI-Suchergebnissen (siehe dazu auch Punkt 5.)

Zusammenfassend herrschte auf der SMX unter den Experten der Konsens, dass professionelles SEO weiterhin die wichtigste Grundlage und Strategie für die Optimierung von KI-Suchen bleibt.

2. E-Commerce in KI-Suchen ist die Zukunft – aber nicht die Gegenwart.

Auch wenn alle darüber reden: Es gibt noch keine Kauffunktion bei ChatGPT & Co. Wohl aber befinden sich unterschiedliche Modelle außerhalb von Deutschland im Test und in Vorbereitung, nur eben noch nicht im Roll-out. Als große Hürde erweist sich für alle Plattformen u.a. die Abbildung des Check-outs für die Kauf-Transaktion, der in der Regel das Login in einen Kunden-Account erfordert und von den KIs nicht abgebildet werden kann. Unternehmen, die sich für Shopping auf Google-KI, ChatGPT, Claude und Co. vorbereiten wollen, sollten also auch hier die gängigen SEO-Techniken wie Strukturierte Daten und klare Themen-Cluster einsetzen. Shops, die den Kauf über einen Gast-Account anbieten sowie die Zahlung ohne Zahlungsmittel (z.B. auf Rechnung), könnten in Zukunft im Vorteil sein.

3. Probiere Claude aus!

Auf der SMX war Claude das meistzitierte Tool – sowohl aus Anwender-, SEO- und Entwicklersicht. Experten-Tipp: Claude runterladen und ausprobieren. Es Vereint viele Funktionen auf einmal – von der reinen Text- und Ideenentwicklung über Agentic Workflows (Claude Cowork) bis hin zum professionellen Programmieren (Claude Code).

4. „Nutzersignale sind die Mutter aller Rankingfaktoren“

Hans Kronenberg, SEO-Urgestein und langjähriger Berater bei Sistrix, erinnerte in einem überzeugenden Vortrag an die Relevanz der Nutzersignale. Er erläuterte das Konzept der zweistufigen Rankingermittlung durch Google: Im ersten Schritt entwickelt Google eine Ranking-Prognose anhand der (SEO-) Konzeption der betreffenden Seite, woraus sich ein Erwartungswert ergibt. Dabei spielen bekannte SEO-Techniken eine entscheidende Rolle: Allgemeine Relevanz, Keyword-Relevanz, Links, technische Performance und Struktur. Im zweiten Schritt bewertet Google die Seite erneut und lässt das Nutzerverhalten mit einfließen: Messung von Pertinenz, CTR, Long Clicks versus Short Clicks sowie Last longest Klicks. Auf Basis der zweiten Stufe korrigiert Google die Rankingprognose aus dem ersten Schritt und nimmt ein „Re-Ranking“ vor. Kronenberg fasst diesen Zusammenhang wie folgt zusammen:

„Nutzung korrigiert Ranking!“

Was heißt das fürs SEO?

Eine durchoptimierte, technisch und aus SEO-Sicht fehlerfrei aufgesetzte Seite nützt nichts, wenn sie den Nutzer nicht „abholt“. Das Hineindenken und sich Hineinfühlen in den Kunden bleibt ein wichtiges, wenn nicht das wichtigste Kriterium für erfolgreich rankende Websites. Erreichen lässt sich das durch:

  • Eine gut strukturierte Seite mit einer sehr guten UX.
  • Den richtigen Look & Feel für das Produkt, die Kategorie, die Kunden.
  • Uniquen, zielgruppenrelevanten Content.

5. Bot-Traffic nervt, aber du brauchst ihn trotzdem.

In einem eindrücklichen, teilweise nachdenklichen Vortrag gab Amanda King aus Australien Empfehlungen zum Umgang mit Bots im Kontext von KI-Suchen. Ihre wichtigsten Take-aways:

  • 50 % des Webtraffics wird von Bots generiert, nur 15 % davon sind „guter Bot-Traffic“, der Rest ist Spam oder Fraude.
  • Klassische Suchen und User-Actions bilden zusammen nur ca. 7 % des Web-Traffics ab.
  • Bot-Traffic entsteht überwiegend im Zusammenhang mit Trainingsdaten für KI-Modelle, darunter ist der TikTok-Bot von Bytedance der Dominierende.

Sollten Unternehmen also Bot-Traffic lieber von der Unternehmenswebsite ausschließen? Möglich wäre das z.B. durch entsprechende Disallow-Anweisungen in der robots.txt. In UK machen das nur 3 % der größten Websites, indem sie ChatGPT ausschließen. Betrachtet man alle Seiten in UK schließen rund 40 % einen oder mehrere Bots aus. Klare Empfehlung auf der SMX von King lautet aber: „Allow Bots. All of them!“

Warum? Keine Bots = keine Möglichkeit in KI-Suchen zu erscheinen.

6. Vorsicht mit KI-generiertem Text-Content.

Für alle, die sich immer noch fragen, ob man KI-generierten Content auf einer Website veröffentlichen sollte, auf der SMX gab es die Antwort: Johan von Hülsen, Chef von Wingmen weist anhand der Daten aus dem Google-Leak nach, warum wir keinen KI-generierten Content auf unsere Website veröffentlichen sollten. Google ermittelt unter Einsatz eigener KI den sogenannten Racter-Score. Der Score zeigt, wie hoch der Anteil von KI-erstelltem Content auf einer Seite ist. Ein negativer Score fließt direkt in die Rankingfaktoren einer Seite ein. Bestätigte These: Hoher Anteil von KI-Content wird von Google erkannt und führt zu schlechteren Rankings.

7. Alle Jahre wieder: Stärke Deine Brand.

Auch in diesem Jahr wurden die Experten nicht müde, auf die überragende Bedeutung einer starken Marke hinzuweisen. Das ist insofern bemerkenswert, als dass SEO und Performance-Marketing diese Aufgabe alleine nicht lösen können. Brand Building und „Fame“ erreicht man vor allem über eine abgestimmte, auf die Zielgruppe ausgerichtete Kommunikation, die konsistent über mehrere Stufen und unterschiedlichste Kanäle veröffentlicht wird. Die Wahrnehmung der Marke erfolgt zu 90 % vor „Search“. Eine professionelle Markenstrategie bildet daher weiter die Grundlage für erfolgreiches Performance-Marketing. Unternehmen, die in eine starke Marke investieren, werden belohnt durch:

  • Top-Rankings
  • Stärke gegenüber dem Wettbewerb
  • Geringeren Klickkosten
  • Steigendem transaktionalem Traffic
  • Maximalen Conversions und Top-ROAS
  • Weniger Zero Traffic
  • Mehr Erwähnungen in KI-Suchen

Das waren erstmal die wichtigsten Facts von der SMX 2026. Wer mehr zu einem der Themen wissen möchte, kann sich gerne bei uns melden.

Über den folgenden Link findest du die Informationen zur Verwendung deiner personenbezogenen Daten gemäß Artikel 13 EU DSGVO Datenschutzerklärung