Frese & Wolff Werbeagentur
Heiligengeiststraße 6-8 · 26121 Oldenburg
Teerhof 59 · 28199 Bremen
Kopernikusstraße 14 · 30167 Hannover
T (+49) 0441 8002 0 · F 0441 8002 222
M info@frese-wolff.de · www.frese‑wolff.de
Auch dieses Jahr waren unsere Experten aus dem Performance-Team wieder für euch auf der SMX in München unterwegs. Die internationale Konferenz gilt als einer der wichtigsten Termine für die Zukunft von SEO, SEA und KI-Suche. Aber wir wollen gar nicht lange drum herumreden: Hier kommen die spannendsten Erkenntnisse und Trends von der SMX 2026.
Im Bereich von KI-Suchen haben sich mittlerweile unterschiedliche Begriffe etbaliert: AEO – Answer Engine Optimization (Optimierung für direkte Antworten, z.B. in ChatGPT, Perplexity), LLMO – Large Language Model Optimization (Optimierung speziell für LLMs), AIО – AI Overview Optimization (speziell auf Googles AI Overviews ausgerichtet) oder eben übergreifend „GEO“ (Generative Experience Optimization).
Natürlich war die Bedeutung und Beeinflussung von KI-Suche eines der dominierenden Themen auf der diesjährigen SMX. Dabei wurde klar: Die Algorithmen der aktuell genutzten KI-Such-Agenten unterscheiden sich teilweise erheblich und unterliegen einer permanenten Weiterentwicklung. Ein einheitlicher Standard existiert nicht. Gut lesbare Seiten und relevanter Content bilden daher nach wie vor die Grundlage für Rankings in sämtlichen Suchmaschinen – egal ob klassisch oder KI-gestützt. Daraus ergibt sich:
Zusammenfassend herrschte auf der SMX unter den Experten der Konsens, dass professionelles SEO weiterhin die wichtigste Grundlage und Strategie für die Optimierung von KI-Suchen bleibt.
Auch wenn alle darüber reden: Es gibt noch keine Kauffunktion bei ChatGPT & Co. Wohl aber befinden sich unterschiedliche Modelle außerhalb von Deutschland im Test und in Vorbereitung, nur eben noch nicht im Roll-out. Als große Hürde erweist sich für alle Plattformen u.a. die Abbildung des Check-outs für die Kauf-Transaktion, der in der Regel das Login in einen Kunden-Account erfordert und von den KIs nicht abgebildet werden kann. Unternehmen, die sich für Shopping auf Google-KI, ChatGPT, Claude und Co. vorbereiten wollen, sollten also auch hier die gängigen SEO-Techniken wie Strukturierte Daten und klare Themen-Cluster einsetzen. Shops, die den Kauf über einen Gast-Account anbieten sowie die Zahlung ohne Zahlungsmittel (z.B. auf Rechnung), könnten in Zukunft im Vorteil sein.
Auf der SMX war Claude das meistzitierte Tool – sowohl aus Anwender-, SEO- und Entwicklersicht. Experten-Tipp: Claude runterladen und ausprobieren. Es Vereint viele Funktionen auf einmal – von der reinen Text- und Ideenentwicklung über Agentic Workflows (Claude Cowork) bis hin zum professionellen Programmieren (Claude Code).
Hans Kronenberg, SEO-Urgestein und langjähriger Berater bei Sistrix, erinnerte in einem überzeugenden Vortrag an die Relevanz der Nutzersignale. Er erläuterte das Konzept der zweistufigen Rankingermittlung durch Google: Im ersten Schritt entwickelt Google eine Ranking-Prognose anhand der (SEO-) Konzeption der betreffenden Seite, woraus sich ein Erwartungswert ergibt. Dabei spielen bekannte SEO-Techniken eine entscheidende Rolle: Allgemeine Relevanz, Keyword-Relevanz, Links, technische Performance und Struktur. Im zweiten Schritt bewertet Google die Seite erneut und lässt das Nutzerverhalten mit einfließen: Messung von Pertinenz, CTR, Long Clicks versus Short Clicks sowie Last longest Klicks. Auf Basis der zweiten Stufe korrigiert Google die Rankingprognose aus dem ersten Schritt und nimmt ein „Re-Ranking“ vor. Kronenberg fasst diesen Zusammenhang wie folgt zusammen:
„Nutzung korrigiert Ranking!“
Was heißt das fürs SEO?
Eine durchoptimierte, technisch und aus SEO-Sicht fehlerfrei aufgesetzte Seite nützt nichts, wenn sie den Nutzer nicht „abholt“. Das Hineindenken und sich Hineinfühlen in den Kunden bleibt ein wichtiges, wenn nicht das wichtigste Kriterium für erfolgreich rankende Websites. Erreichen lässt sich das durch:
In einem eindrücklichen, teilweise nachdenklichen Vortrag gab Amanda King aus Australien Empfehlungen zum Umgang mit Bots im Kontext von KI-Suchen. Ihre wichtigsten Take-aways:
Sollten Unternehmen also Bot-Traffic lieber von der Unternehmenswebsite ausschließen? Möglich wäre das z.B. durch entsprechende Disallow-Anweisungen in der robots.txt. In UK machen das nur 3 % der größten Websites, indem sie ChatGPT ausschließen. Betrachtet man alle Seiten in UK schließen rund 40 % einen oder mehrere Bots aus. Klare Empfehlung auf der SMX von King lautet aber: „Allow Bots. All of them!“
Warum? Keine Bots = keine Möglichkeit in KI-Suchen zu erscheinen.
Für alle, die sich immer noch fragen, ob man KI-generierten Content auf einer Website veröffentlichen sollte, auf der SMX gab es die Antwort: Johan von Hülsen, Chef von Wingmen weist anhand der Daten aus dem Google-Leak nach, warum wir keinen KI-generierten Content auf unsere Website veröffentlichen sollten. Google ermittelt unter Einsatz eigener KI den sogenannten Racter-Score. Der Score zeigt, wie hoch der Anteil von KI-erstelltem Content auf einer Seite ist. Ein negativer Score fließt direkt in die Rankingfaktoren einer Seite ein. Bestätigte These: Hoher Anteil von KI-Content wird von Google erkannt und führt zu schlechteren Rankings.
Auch in diesem Jahr wurden die Experten nicht müde, auf die überragende Bedeutung einer starken Marke hinzuweisen. Das ist insofern bemerkenswert, als dass SEO und Performance-Marketing diese Aufgabe alleine nicht lösen können. Brand Building und „Fame“ erreicht man vor allem über eine abgestimmte, auf die Zielgruppe ausgerichtete Kommunikation, die konsistent über mehrere Stufen und unterschiedlichste Kanäle veröffentlicht wird. Die Wahrnehmung der Marke erfolgt zu 90 % vor „Search“. Eine professionelle Markenstrategie bildet daher weiter die Grundlage für erfolgreiches Performance-Marketing. Unternehmen, die in eine starke Marke investieren, werden belohnt durch:
Das waren erstmal die wichtigsten Facts von der SMX 2026. Wer mehr zu einem der Themen wissen möchte, kann sich gerne bei uns melden.