massa haus

massa-haus.de

B2C Ausbauhaus · WordPress + Oxygen Builder · 40.000+ Häuser · Gegr. 1978
massa-haus.de
Screenshot massa-haus.de

massa haus ist Deutschlands Marktführer im Ausbauhaus-Segment und die bekannteste Marke im DFH-Konzern. Die Website nutzt WordPress mit dem Oxygen Builder — ein JavaScript-basierter Page Builder, der sämtlichen Content erst im Browser rendert. Das macht die gesamte Website für KI-Crawler unsichtbar, obwohl die Marke die stärksten Autoritätssignale im Konzern hat (Wikipedia-Artikel, 9,9M YouTube-Views). Die DFH muss dieses technische Hindernis als höchste Priorität behandeln. Die strategische Neupositionierung von „Billiges Bauen" zu „Smartes Bauen — Muskelhypothek als Selbstverwirklichung" erfordert, dass KI-Systeme diese neue Narrative auch tatsächlich lesen können.

0
/ 100
?
Was ist der SEO Health Score?

Der gewichtete Durchschnitt aus 7 Kategorien: Technical (25%), Content (25%), On-Page (20%), Schema (10%), Performance (10%), Images (5%) und AI Search (5%).

Wie wird er berechnet? Jede Kategorie wird einzeln auf einer Skala von 0–100 bewertet — basierend auf den offiziellen Google Search Central Richtlinien, Core Web Vitals (CrUX-Daten), Google Lighthouse und dem Schema.org-Validator. Der Gesamtscore ist der gewichtete Mittelwert aller Kategorien. Es gibt keinen offiziellen „SEO-Score" von Google — dieses Scoring-Modell basiert auf den öffentlich dokumentierten Ranking-Faktoren und branchenüblichen Audit-Frameworks.
SEO Health Score
0
/ 100
?
Was ist der GEO Readiness Score?

Der gewichtete Durchschnitt aus 5 GEO-Kategorien: Citability (25%), Structural Readability (20%), Multi-Modal (15%), Authority & Brand (20%) und Technical Access (20%).

Wie wird er berechnet? GEO (Generative Engine Optimization) ist ein neues Forschungsfeld. Dieses Scoring basiert auf der GEO-Studie von Aggarwal et al. (2024, Princeton/Georgia Tech), der Ahrefs-Korrelationsstudie (Dez. 2025, 75.000 Brands) und den offiziellen Crawler-Dokumentationen von OpenAI, Anthropic und Perplexity. Es gibt noch keinen einheitlichen GEO-Index — ich habe die relevantesten Peer-Reviewed-Studien und öffentlichen Datenquellen zu einem praxistauglichen Framework zusammengeführt.
GEO Readiness Score

~0% Server-Side Rendering

Der Oxygen Builder rendert sämtlichen Content per JavaScript. KI-Crawler (GPTBot, ClaudeBot, PerplexityBot) sehen eine leere Seite. Trotz stärkster Markenautorität im DFH-Konzern (Wikipedia, YouTube 9.9M Views, 45+ Jahre) ist die Website technisch unsichtbar für KI-Suchmaschinen. Solange dieses Problem nicht behoben wird, verpufft jede andere GEO-Investition wirkungslos.

SSR

~0%

Schlechtester im Konzern

Wikipedia

Ja

DE-Artikel vorhanden

YouTube

9.9M

Views, 2.4K Subs

SEO-Kategorien

7 Bewertungsdimensionen — klicken Sie auf ? für Erklärungen

Technical SEO (25%) ?
Was ist Technical SEO?

Crawlability, Indexability, HTTPS, Redirects, robots.txt, Sitemaps und Security Headers.

Warum wichtig: Die Grundlage — wenn Suchmaschinen die Seite nicht crawlen können, existiert sie für Google nicht. Ohne technisches Fundament sind alle anderen Maßnahmen wirkungslos.
Was bedeutet 100/100? 100 = HTTPS aktiv, saubere Redirects (nur 301), vollständige XML-Sitemap, optimale robots.txt, keine Crawl-Errors, korrekte Canonical Tags, Security Headers gesetzt. Ich prüfe jeden dieser Faktoren einzeln gegen die Google Search Central Dokumentation und die Best Practices aus Googles technischem SEO-Leitfaden.
45
Content Quality (25%) ?
Was ist Content Quality?

E-E-A-T-Signale (Erfahrung, Expertise, Autorität, Vertrauenswürdigkeit), Thin Content, Duplicate Content und Readability.

Warum wichtig: Google bewertet seit dem Dezember 2025 Update E-E-A-T bei ALLEN kompetitiven Suchanfragen — nicht mehr nur bei YMYL. Hausbau ist ein Hochrisiko-Thema: Fehlinformationen können finanzielle Schäden verursachen.
Was bedeutet 100/100? 100 = Alle Seiten mit >800 Wörtern einzigartigem Content, Autorennennung mit Expertise-Nachweis, Quellenangaben, aktuelle Datumsangaben, kein Duplicate Content, Flesch-Reading-Ease >60. Bewertet nach Googles Quality Rater Guidelines (E-E-A-T-Framework, öffentlich einsehbar) und dem Dezember 2025 Core Update.
50
On-Page SEO (20%) ?
Was ist On-Page SEO?

Title Tags, Meta Descriptions, Heading-Struktur (H1→H2→H3) und interne Verlinkung.

Warum wichtig: Das sind die direkt steuerbaren Ranking-Faktoren. Jede fehlende Meta-Description ist ein unkontrolliertes Suchergebnis — Google wählt dann selbst, was angezeigt wird.
Was bedeutet 100/100? 100 = Jede Seite hat einen einzigartigen Title (50–60 Zeichen), eine Meta Description (120–160 Zeichen), genau eine H1, logische H2/H3-Hierarchie und mindestens 3 interne Links. Basiert auf den öffentlichen Google Search Central Empfehlungen — diese Vorgaben sind keine Meinung, sondern dokumentierte Google-Standards.
48
Schema / Structured Data (10%) ?
Was sind Strukturierte Daten?

JSON-LD Markup für Rich Results und KI-Extraktion: FAQPage, Product, Organization, LocalBusiness.

Warum wichtig: Die Sprache, die Suchmaschinen und KI-Systeme am besten verstehen. FAQPage-Schema wird direkt in Google-Suchergebnisse und KI-Antworten extrahiert — ohne Schema ist der Content für KI schwer zitierbar.
Was bedeutet 100/100? 100 = Organization-Schema auf jeder Seite, FAQPage-Schema auf FAQ-Seiten, Product-Schema bei Produkten, LocalBusiness-Schema für Standorte, BreadcrumbList-Schema — alles validiert gegen Googles Rich Results Test (öffentliches Tool) und schema.org-Spezifikation.
40
Performance (10%) ?
Was sind Core Web Vitals?

LCP (Largest Contentful Paint), INP (Interaction to Next Paint) und CLS (Cumulative Layout Shift) — die drei Metriken, die Google seit 2021 als Ranking-Faktor nutzt.

Warum wichtig: Langsame Seiten verlieren messbar Besucher: Jede Sekunde Ladezeit kostet ~7% Conversion Rate. Seit 2024 ist INP der neue Interaktivitäts-Faktor.
Was bedeutet 100/100? 100 = LCP unter 2,5s, INP unter 200ms, CLS unter 0,1. Diese Schwellenwerte sind von Google offiziell definiert und über den Chrome UX Report (CrUX) öffentlich messbar. Ich nutze Google PageSpeed Insights und Lighthouse — beides offizielle Google-Tools.
55
Images (5%) ?
Warum sind Bilder wichtig?

Alt-Texte, Dateiformate (WebP/AVIF), Dateigrößen und Lazy Loading.

Warum wichtig: Bilder ohne Alt-Text sind für Suchmaschinen unsichtbar. Für Fertighausanbieter, wo visuelle Inspiration kaufentscheidend ist, bedeutet das: Tausende Bildsuchen gehen an die Konkurrenz.
Was bedeutet 100/100? 100 = Alle Bilder haben beschreibende Alt-Texte, nutzen moderne Formate (WebP/AVIF), sind unter 200KB, haben definierte width/height-Attribute (kein Layout-Shift) und nutzen Lazy Loading. Basiert auf Google Search Central Bildoptimierungsrichtlinien und Web.dev Best Practices.
40
AI Search Readiness (5%) ?
Was ist AI Search Readiness?

Sichtbarkeit in ChatGPT, Perplexity, Google AI Overviews. Bewertet SSR, llms.txt, Citability und Brand Mentions.

Warum wichtig: Der am schnellsten wachsende Kanal: +527% in 2025. Über 50% aller Google-Anfragen lösen bereits AI Overviews aus. Wer hier nicht sichtbar ist, verliert die nächste Generation von Suchenden.
Was bedeutet 100/100? 100 = Vollständiges SSR, llms.txt vorhanden, alle KI-Crawler in robots.txt erlaubt, zitierfähige Textblöcke (134–167 Wörter), Brand Mentions auf Wikipedia/YouTube/Reddit. Dieser Score basiert auf der Ahrefs-Studie (Dez. 2025, 75.000 Brands), Perplexitys öffentlicher Dokumentation und Googles AI Overview Daten.
28

GEO-Dimensionen

Citability (25%) ?
Was ist Citability?

Können KI-Systeme einzelne Textpassagen (134–167 Wörter) als eigenständige Antworten zitieren?

Warum wichtig: Guter Content hat klare Definitionen, Fakten und Zahlen in extrahierbaren Blöcken. Ohne solche Passagen wird der Content zwar gefunden, aber nicht als Antwort ausgewählt.
Was bedeutet 100/100? 100 = Jede wichtige Seite enthält mindestens 3 eigenständige Antwortblöcke à 134–167 Wörter mit konkreten Fakten/Zahlen, „X ist…"-Definitionen und quellengestützten Aussagen. Die optimale Passagenlänge stammt aus Studien von Zyphra Labs und SE Ranking zur AI Overview-Zitationsrate.
15
Structural Readability (20%) ?
Was ist Structural Readability?

Saubere H1→H2→H3 Hierarchie, kurze Absätze, Listen, Tabellen und FAQ-Sektionen.

Warum wichtig: 92% der AI Overview Zitate kommen von Seiten mit guter Struktur. Frage-basierte Überschriften (H2: "Was kostet ein Fertighaus?") werden bevorzugt zitiert.
Was bedeutet 100/100? 100 = Durchgängige Heading-Hierarchie, Absätze mit max. 3–4 Sätzen, mindestens eine Liste oder Tabelle pro 500 Wörter, Frage-basierte H2/H3 und eine FAQ-Sektion. Basiert auf Analysen von SE Ranking und Authoritas zur Struktur von AI-Overview-Quellseiten.
30
Multi-Modal Content (15%) ?
Was ist Multi-Modal Content?

Vielfalt der Medienformate: Bilder, Videos, Infografiken, interaktive Tools.

Warum wichtig: Content mit mehreren Formaten wird 156% häufiger von KI-Systemen als Quelle ausgewählt. Ein Hausbau-Konfigurator oder Preisrechner wäre ein starkes Signal.
Was bedeutet 100/100? 100 = Jede Hauptseite kombiniert Text + Bilder + mindestens ein weiteres Format (Video, Infografik, interaktives Tool wie Konfigurator/Rechner). Die 156%-Steigerung stammt aus der GEO-Studie von Aggarwal et al. (2024, Princeton/Georgia Tech).
45
Authority & Brand (20%) ?
Was bedeutet Authority & Brand?

Präsenz auf Wikipedia, YouTube, Reddit, LinkedIn und Bewertungsportalen.

Warum wichtig: Markenerwähnungen korrelieren 3× stärker mit KI-Sichtbarkeit als Backlinks (Ahrefs Studie, 75.000 Brands). YouTube-Mentions haben die stärkste Korrelation (~0,737).
Was bedeutet 100/100? 100 = Wikipedia-Artikel vorhanden, aktiver YouTube-Kanal, Reddit-Präsenz, LinkedIn-Unternehmensprofil, Bewertungen auf ProvenExpert/Google (>4.0/5). Gewichtung nach der Ahrefs-Korrelationsstudie (Dez. 2025): YouTube-Mentions (~0,737), Reddit, Wikipedia, LinkedIn, Domain Rating (~0,266).
50
Technical Access (20%) ?
Was ist Technical Access?

Server-Side Rendering, robots.txt-Zugang für KI-Crawler und llms.txt.

Warum wichtig: KI-Crawler führen KEIN JavaScript aus. Ohne SSR ist die Seite eine leere Seite für GPTBot, ClaudeBot und PerplexityBot. Das ist der wichtigste technische Faktor für GEO.
Was bedeutet 100/100? 100 = 100% SSR (alle Inhalte im initialen HTML), GPTBot/ClaudeBot/PerplexityBot in robots.txt erlaubt, llms.txt vorhanden. SSR-Wert wird gemessen durch Vergleich des HTML-Quellcodes (ohne JS) mit der gerenderten Seite. Die Crawler-Informationen stammen aus den offiziellen Dokumentationen von OpenAI, Anthropic und Perplexity.
10

Server-Side Rendering im Konzernvergleich ?
Was ist Server-Side Rendering (SSR)?

SSR bedeutet, dass der HTML-Inhalt einer Website bereits auf dem Server fertig generiert wird — nicht erst im Browser des Besuchers per JavaScript. Einfach gesagt: Ist die Seite schon „fertig", wenn man den Quelltext öffnet, oder ist sie leer?

Warum ist das wichtig? KI-Crawler (GPTBot, ClaudeBot, PerplexityBot) führen kein JavaScript aus. Eine Seite mit 0% SSR ist für diese Systeme buchstäblich eine leere Seite — egal wie gut der Content ist. Google kann JavaScript rendern, aber bevorzugt ebenfalls SSR-Inhalte.
Wie wird der SSR-Wert gemessen? Ich vergleiche den HTML-Quellcode (das, was der Server liefert, OHNE JavaScript) mit der vollständig gerenderten Seite. Der Prozentsatz zeigt, wie viel des sichtbaren Contents bereits im Server-HTML vorhanden ist. 100% = alles im HTML, 0% = alles erst per JavaScript nachgeladen.

SSR bestimmt, ob KI-Crawler den Content lesen können. Ohne SSR ist eine Website für KI-Systeme unsichtbar.

~0%
massa-haus
75–80%
allkauf
75–80%
okal
70–75%
einsteinhaus
85–90%
dfh-wohnungsbau

Alle Crawler erlaubt, aber sehen nur leere Seite wegen fehlendem SSR

KI-Crawler-Zugang

Welche KI-Crawler können massa-haus.de lesen? Die Spalte „Effektiv" berücksichtigt auch SSR — erlaubt, aber leer, nützt nichts.

CrawlerBetreiberrobots.txtEffektiver Zugang
GPTBot OpenAI Erlaubt Eingeschränkt (kein SSR / nicht konfiguriert)
ClaudeBot Anthropic Erlaubt Eingeschränkt (kein SSR / nicht konfiguriert)
PerplexityBot Perplexity Erlaubt Eingeschränkt (kein SSR / nicht konfiguriert)
OAI-SearchBot OpenAI Erlaubt Eingeschränkt (kein SSR / nicht konfiguriert)
Googlebot Google Erlaubt Eingeschränkt (kein SSR / nicht konfiguriert)
Bingbot Microsoft Erlaubt Eingeschränkt (kein SSR / nicht konfiguriert)

KI-Plattform-Sichtbarkeit

Wie gut ist massa-haus.de für jede KI-Suchplattform optimiert? Jede Plattform hat eigene Zitationsquellen und Präferenzen.

?
Was sind Google AI Overviews?

KI-generierte Zusammenfassungen, die Google über den normalen Suchergebnissen anzeigt. Bereits bei über 50% aller Suchanfragen aktiv, erreichen 1,5 Mrd. Nutzer/Monat.

Wie entsteht dieser Score? 92% der zitierten Quellen stammen aus den Top-10 der organischen Suchergebnisse, aber 47% von Seiten unter Position 5 — d.h. Google nutzt eine eigene Auswahllogik. Der Score bewertet: Ranking-Position, Passage-Struktur, FAQ-Schema und Content-Tiefe. Basiert auf Googles eigenen AI Overview Daten und der SE Ranking Analyse (2025, 100.000 Suchanfragen).

Google AI Overviews

0
/100

Google AI Overviews können trotz fehlendem SSR auf indexierte Snippets und Drittquellen zurückgreifen. Aber ohne eigene Inhalte dominieren kritische Forenbeiträge die AI Overviews.

?
Was ist ChatGPT Web Search?

OpenAIs ChatGPT nutzt Web-Suche, um aktuelle Antworten zu geben. 900 Mio. wöchentliche Nutzer weltweit. Die Zitationsquellen unterscheiden sich stark von Google.

Wie entsteht dieser Score? 47,9% der ChatGPT-Zitate stammen von Wikipedia, 11,3% von Reddit (Datos/SparkToro-Studie, 2025). Der Score bewertet: Wikipedia-Präsenz, Reddit-Mentions, SSR-Status (GPTBot führt kein JavaScript aus), Domain-Autorität und zitierfähige Textblöcke. Nur 11% der Domains werden sowohl von ChatGPT als auch Google AI Overviews für dieselbe Anfrage zitiert.

ChatGPT

0
/100

ChatGPT zitiert massa haus primär über den Wikipedia-Artikel (47.9% aller ChatGPT-Quellen sind Wikipedia). Ohne SSR fehlen aktuelle Produktdaten und Preise in den Antworten.

?
Was ist Perplexity?

KI-Suchmaschine mit 500+ Mio. monatlichen Anfragen, die Antworten mit Quellenangaben generiert. Besonders beliebt bei Recherche-intensiven Anfragen.

Wie entsteht dieser Score? 46,7% der Perplexity-Quellen kommen von Reddit, gefolgt von Wikipedia (Datos/SparkToro-Studie). Der Score bewertet: Reddit-Diskussionen zur Marke, Wikipedia-Artikel, Forenerwähnungen, SSR-Status und Bewertungsportale. Perplexity bevorzugt Community-validierte Quellen über offizielle Firmenwebsites.

Perplexity

0
/100

Perplexity ist der schwächste Kanal: 46.7% der Zitate kommen von Reddit (wo DFH nicht präsent ist). Ohne Reddit und ohne lesbaren Website-Content existiert massa haus für Perplexity kaum.

?
Was ist Bing Copilot?

Microsofts KI-Assistent in Bing, der auf dem Bing-Suchindex basiert. Relevant für ca. 3% des deutschen Suchmarkts, aber wachsend durch Integration in Microsoft 365 und Windows.

Wie entsteht dieser Score? Bing Copilot nutzt primär den Bing-Index und bevorzugt Seiten mit IndexNow-Implementierung. Der Score bewertet: Bing Webmaster Tools Registrierung, IndexNow-Protokoll, Bing-spezifische Meta-Tags und allgemeine SSR/Schema-Qualität.

Bing Copilot

0
/100

Bing Copilot nutzt den Bing-Index, der ähnlich wie Google auf Drittquellen zurückgreift. Die fehlende SSR-Lesbarkeit reduziert auch hier die Zitierbarkeit.

Markenpräsenz auf externen Plattformen

Markenerwähnungen korrelieren 3× stärker mit KI-Sichtbarkeit als Backlinks. Die DFH muss hier gezielt investieren.

W
Wikipedia DE
Vorhanden
DE-Artikel vorhanden
W
Wikipedia EN
Fehlt
Fehlt
YouTube
Vorhanden
2.4K Subs, 9.9M Views
in
LinkedIn
Vorhanden
Firmenprofil
r/
Reddit
Fehlt
Kein Eintrag
💬
Hausbau-Foren
Teilweise
Erwähnt, überwiegend kritisch
Bewertungen
Teilweise
3.6/5, 22 Bewertungen
{}
llms.txt
Fehlt
Nicht vorhanden

Wer definiert die KI-Narrative?

Woher beziehen KI-Systeme ihre Informationen über massa-haus.de? Je weniger Kontrolle die DFH über diese Quellen hat, desto risikoreicher ist die KI-Darstellung.

Wikipedia: 25%
Drittseiten/Presse: 30%
Kritische Foren: 20%
YouTube: 20%
Eigene Website: 5%

Nur 5% der KI-Narrative werden von der eigenen Website bestimmt. Kritische Foren und Drittseiten dominieren das Bild. Die DFH muss die Kontrolle über die eigene Story zurückgewinnen.

Score-Projektion: Der Weg nach vorn

Jede Maßnahme hat einen messbaren Impact auf den GEO-Score. Die DFH sollte diese Schritte in der dargestellten Reihenfolge umsetzen — der kumulative Effekt ist entscheidend.

Aktueller Score: 28/100
Ziel-Score: 78/100

Maßnahmenplan

Jede Maßnahme erklärt nicht nur was zu tun ist, sondern auch warum es wichtig ist und was passiert, wenn man es nicht tut. Ich empfehle der DFH, die Reihenfolge einzuhalten.

KRITISCH

1. Server-Side Rendering aktivieren

+27 GEO

Der Oxygen Builder muss durch eine SSR-fähige Lösung ersetzt oder ein Pre-Rendering für Bot-User-Agents eingerichtet werden. Alternativ sollten kritische Inhalte als statisches HTML vor dem JS-Content injiziert werden.

Warum ist das wichtig? KI-Crawler führen kein JavaScript aus. Solange der Oxygen Builder den Content rendert, ist massa-haus.de für GPTBot, ClaudeBot und PerplexityBot eine leere Seite. Das bedeutet: Null Zitate in ChatGPT-Antworten, null Erwähnung in Perplexity, und stark reduzierte Chancen in Google AI Overviews. Jede andere GEO-Optimierung ist wirkungslos, solange dieses Problem besteht. Die DFH muss diesen Fix als höchste technische Priorität behandeln.
HOCH

2. JSON-LD Schema als Content-Proxy ausbauen

+8 SEO/GEO

WebPage-Beschreibungen (134–167 Wörter), Product-Schema für 188 Haus-Seiten, FAQPage-Schema mit vollständigen Antworten und erweiterte Organization-Daten sollten umgehend implementiert werden.

Warum ist das wichtig? Solange der Body-Content unsichtbar bleibt, ist das JSON-LD Schema der EINZIGE Kanal, über den KI-Systeme Informationen von der Website selbst beziehen können. Ohne Schema-Ausbau beschreiben KI-Systeme massa haus ausschließlich anhand von Drittquellen — oft kritischen Forenbeiträgen. Die DFH sollte diesen Bypass als Sofortmaßnahme parallel zum SSR-Projekt vorantreiben.
HOCH

3. Reddit-Präsenz aufbauen

+5 GEO

Authentische Beiträge in r/de, r/Finanzen, r/wohnen zu Ausbauhaus-Themen. Kein DFH-Brand hat Reddit-Präsenz — das ist eine einmalige First-Mover-Chance.

Warum ist das wichtig? 46,7% aller Perplexity-Zitate stammen von Reddit, 11,3% der ChatGPT-Zitate ebenfalls. Ohne Reddit-Präsenz existiert massa haus in der Perplexity-Welt praktisch nicht. Da kein Wettbewerber im Fertighausbau Reddit aktiv nutzt, empfehle ich der DFH, diese Lücke konzernweit und schnellstmöglich zu schließen.
MITTEL

4. llms.txt erstellen und deployen

+5 GEO

Strukturierte Markeninformationen für KI-Systeme: Schreibweise, Kernfakten, bevorzugte URLs. Der Aufwand beträgt ca. 1 Stunde pro Marke.

Warum ist das wichtig? Ohne llms.txt bestimmen KI-Systeme selbst, wie sie die Marke darstellen. Falsche Schreibweisen ('Massa Haus', 'MASSA'), veraltete Fakten oder Fokus auf negative Forenbeiträge sind die Folge. Die llms.txt gibt der Marke erstmals eine kontrollierte Stimme gegenüber KI-Crawlern. Ich empfehle die Implementierung für alle fünf Marken gleichzeitig.
MITTEL

5. Passage-optimierte Content-Blöcke

+5 GEO

Nach dem SSR-Fix: Definitionen in den ersten 60 Wörtern, 134–167-Wörter-Blöcke und Frage-basierte H2/H3-Überschriften einführen.

Warum ist das wichtig? KI-Systeme zitieren bevorzugt selbstständige Textblöcke von 134–167 Wörtern, die eine Frage direkt beantworten. Ohne solche Blöcke wird der Content zwar gecrawlt (nach SSR-Fix), aber nicht als Zitat ausgewählt. Die Konkurrenz-Inhalte auf Drittseiten bleiben dann weiterhin die primäre Quelle für KI-Antworten.

Konzernvergleich

massa-haus.de im Vergleich zu allen DFH-Schwestermarken

Tipp: Klicken Sie in der Legende auf eine Marke, um sie ein-/auszublenden