Google will bei fremden Subdomains gehosteten Content anders behandeln

Google will bei fremden Subdomains gehosteten Content anders behandeln

Google hat angegeben, dass die eigenen Systeme überholt werden, um Content, der in Subdomains oder in Subfolder von externen Seiten ausgelagert wird, besser erkennen zu können. Dann wird er auch entsprechend behandelt werden, heißt es. Die Praktik könnte durch Googles prüfenden Blick also riskanter werden, was die SEO betrifft.
Lohnt sich die Auslagerung von Content in Subdomains?
Wer eigene Inhalte in eine Subdomain oder einen Subfolder bei einer anderen Domain als der eigenen integriert, verspricht sich vermutlich einen SEO-Vorteil davon. So könnte die gewählte Domain viel Traffic generieren, wovon man beim Ranking der Inhalte und bei der Generierung von Traffic wiederum für diesen ausgelagerten Content profitieren möchte. Doch Google hat nun eine klare Antwort geliefert, die sich auf die Frage bezieht, ob Dritte ihre Inhalte in Subdomains oder Subfoldern unterbringen können. Davon berichtet unter anderem Search Engine Land.
Via Twitter hat der Google Webmasters Account bestätigt, dass dieses Hosting bei anderen Domains nicht gegen Googles Richtlinien verstößt. Allerdings soll Googles Algorithmus dahingehend trainiert werden, dass er besser erkennt, wenn bestimmte Inhalte von der Hauptseite unabhängig sind. Wird das erkannt, möchte Google den Content auch entsprechend behandeln.

We’ve been asked if third-parties can host content in subdomains or subfolders of another’s domain. It’s not against our guidelines. But as the practice has grown, our systems are being improved to better know when such content is independent of the main site & treat accordingly.
— Google Webmasters (@googlewmc) August 14, 2019

Doch was bedeutet das für die die Content-Eigner? In einem Webmaster Central Hangout hatte Webmaster Trends Analyst John Mueller sich etwas deutlicher dazu geäußert.
By ‘handling them appropriately,’ I don’t mean we should treat them as spam and just delete all of these subdomains, because they’re not really spam. They’re just kind of sales pages, affiliate pages that are hosted within another website. Maybe the right approach is to find a way to figure out what is the primary topic of this website and focus more on that, and then kind of leave these other things on the side. […] When it comes to quality, we try to look at the quality of a website overall. So, if there are particular parts of a website that are really low quality …. then overall, that could be degrading the quality of that site a little bit.
Risiko für beide Seiten
Während die Taktik also nicht gegen Googles Vorgaben verstößt, ist sie doch nicht gern gesehen. Denn Google rät dazu, über die eigene Seite und die eigene Brand Traffic zu generieren und die Inhalte dort für die Suchmaschine optimiert zu präsentieren.

Our guidance is if you want the best success with Search, provide value-added content from your own efforts that reflect your own brand.
— Google Webmasters (@googlewmc) August 14, 2019

Für Seitenbetreiber, die ihre Subdomains oder Subfolder anderen überlassen, um dort ihren Content zu platzieren, besteht das Risiko, dass das Ranking der ganzen Domain durch schwachen Content in Mitleidenschaft gezogen wird. Eine sehr genaue Prüfung der Inhalte, die von Dritten stammen und Eingang in beispielsweise eine Subdomain erhalten, ist so unbedingt vonnöten. Dieses Risiko lässt sich noch ausweiten. Wer Content anderswo unterbringt, verliert die Chance, darüber die eigene Domain im Ranking zu stärken, wenn der Inhalt gut ist. Außerdem könnten Seiten, die ihre Subdomains für Inhalte anderer öffnen, auch sehr schwache Inhalte hosten, sodass dein Content Piece, obwohl relevant, unterzugehen droht, weil die Haupt-Domain durch zu viel irrelevante Inhalte im Ranking deutlich einbüßt.
Da Google nun künftig sehr genau darauf achten wird, welcher Content fremd-gehostet wird, sollten Seitenbetreiber und Content-Produzenten sich ganz genau überlegen, ob die Auslagerung langfristig sinnvoll ist. Hier dürften nur geprüfte und werthaltige Partnerschaften die Chance haben, bei Google ein starkes Ranking zu (er)halten und damit viel relevanten Traffic zu generieren.

Beschwerde bei der EU: Konkurrenten wehren sich gegen Googles Jobsuche

Beschwerde bei der EU: Konkurrenten wehren sich gegen Googles Jobsuche

Wer heute einen Job sucht, der informiert sich zuallererst online. Und dabei ist häufig der erste Schritt die gesuchte Stelle als Suchanfrage bei Google einzugeben. Basierend auf diesem Nutzungsverhalten hat Google 2017 ein Tool für die Jobsuche eingeführt, das seit einigen Monaten auch in Deutschland und Europa ausgerollt ist. Doch einige Wettbewerber sehen darin einen Machtmissbrauch Googles und haben sich an die EU gewandt, damit diese eine Untersuchung einleitet – und Googles Tool solange einschränkt.
Googles Tool für die Jobsuche: Anreiz für den Wettbewerb oder unlauterer Eingriff?
Ende Mai launchte Google ein unterstützendes Tool für die Suche, das bei dem Finden von Jobs helfen soll.

Auf der Suche nach eurem nächsten Traumjob? Wir freuen uns euch ab heute mit der neuen Stellensuche-Funktion in der Google-Suche zu unterstützen! Was diese Erweiterung so alles kann, erfahrt ihr hier: https://t.co/aANxLH0yn9pic.twitter.com/KhRkFmC0it
— Google Deutschland (@GoogleDE) May 22, 2019

Wenn bei Google etwa „Jobs in meiner Nähe“ eingegeben wird, tauchen in einem auffälligen Snippet Jobs auf. Außerdem wird hierbei auch auf andere Anbieter wie Indeed, StepStone und Co. verwiesen, bei denen nach Jobs gesucht werden kann.
Googles Jobsuche-Tool zur Anfrage „Jobs in meiner Nähe“ (mit einem Klick aufs Bild gelangst du zur größeren Ansicht), Screenshot Google Allerdings sind einige Wettbewerber über die Funktion nicht erfreut. Denn Googles Angaben sind das erste organische Ergebnis. Folglich rutschen Jobsuche-Websites im Blickfeld weiter nach unten. Wenn sie ihre Angebote mit Strukturierten Daten für Google optimieren, können sie bei Googles Tool auftauchen. Doch 23 Jobsucheanbieter haben inzwischen einen Brief an Margrethe Vestager, die noch aktuelle EU-Kommissarin für Wettbewerb, geschickt, wie Reuters berichtet. Zu den unterzeichnenden gehören demnach auch Best Jobs Online aus dem UK und Intermedia sowie Jobindex aus Deutschland. Sie glauben, dass Google mit dem Tool den Wettbewerb in Bezug auf die Jobsuche unlauter zu den eigenen Gunsten beeinflusst. Ein Link auf andere Jobsucheseiten sei keine Rechtfertigung für eine Gleichbehandlung. So wird im Brief gefordert, dass eine Untersuchung eingeleitet wird, während der Googles Tool eine Einschränkung erfährt. Noch aber ist keine offizielle Untersuchung im Gange.
Angst vor Googles Dominanz – die Suchmaschine bleibt diplomatisch
Einige Jobsuch-Websites aus der EU befürchten, dass Google künftig im Rahmen des Jobsuche-Tools Werbung schalten könnte, die die Sichtbarkeit anderer Seiten in den SERPs weiter verringert. Auch die Integration von Angeboten anderer Seiten in das eigene Tool könnte im schlimmsten Fall ausgesetzt werden, so eine weitere Befürchtung. Daher gehen die 23 Unternehmen davon aus, dass Google seine Marktmacht missbraucht, um Jobsuchende auf den eigenen Dienst zu verweisen.
Nick Zakrasek, Senior Product Manager für die Googlesuche, erklärt gegenüber Reuters, dass man das Feedback annehme. Außerdem könnten die Jobsuche-Websites aber von Googles Tool profitieren, was den Wettbewerb ganz neu belebe:
Any provider – from individual employers to job listing platforms – can utilize this feature in search, and many of them have seen a significant increase in the number of job applications they receive. By improving the search experience for jobs, we’re able to deliver more traffic to sites across the web and support a healthy job search ecosystem.
Alleine in den USA konnte das Tool im Juni 2019 laut Reuters 120 Millionen Klicks generieren. Und diese sind für die Unternehmen, die quasi mit Google kooperieren, sehr wertvoll. Und das sind einige. iCIMS, Provider für Job Listings, nennt Googles Tool als drittgrößte Referral-Quelle für die Seiten der Klienten.
Monster wiederum hatte sich wegen schwacher SEO in den vergangenen Jahren bei Google im Ranking verschlechtert. Durch das Tool hat man aber einen Anreiz gesehen, die eigenen Listings zu optimieren, um bei Googles Tool aufzutauchen. Und Chief Executive Scott Gutz sagt:
There’s been a leveling of the playing field.
Letztlich könnte Googles Macht weiter wachsen
Ob es weitere und dann formale Beschwerden bei der EU gibt, ist noch offen. Vestager prüft das Jobsuche-Tool des Suchmaschinenriesen, wird aber die lose Untersuchung an einen Nachfolger weiterleiten, da sie Ende Oktober aus dem Amt scheidet. Klar ist jedoch: für die Nutzer hat das Tool Googles durchaus seine Vorteile und es wird auch künftig sehr viele Klicks generieren. Anbieter, die mit Google kooperieren, um davon zu profitieren, könnten so relevant bleiben. Doch wenn Google hier kein Marktmissbrauch bescheinigt wird, sollte es zu einer offiziellen Untersuchung kommen, wird die Macht, die die Suchmaschine über die Job Listings und die Anforderungen bei Jobsuch-Websites hat, nur größer werden.

Googles Verlust von Teilen des Search Index – Lessons Learned

Googles Verlust von Teilen des Search Index – Lessons Learned

Die Suchmaschine Google bedient täglich über fünf Milliarden Suchanfragen. Die Top Positionen in den SERPs sind eine zentrale Größe für Webmaster und es werden immer wieder neue Seiten indexiert. Bei kleineren Problemen mit dem Search Index bekommen die meisten Seitenbetreiber und Nutzer kaum etwas mit. Doch in diesem Jahr tauchten bei Google Probleme mit der Indexierung auf, die umfassender waren. Dazu äußert Google sich nun explizit per Blogpost – und gibt an, was man dabei gelernt hat.
Die Probleme mit dem Search Index
Vincent Courson von Google Search Outreach hat einen langen Blogpost verfasst, der darüber aufklärt, wie die Probleme beim Indexieren entstehen können und wie Google diese zu kommunizieren gedenkt.

In April, we had some issues with the Search index📚📚, and there were more last week.
Read more about why this can happen, and how we approach communication in these instances. 📢📢https://t.co/lepHhwAZBk
— Google Webmasters (@googlewmc) August 12, 2019

Bereits im April gab es ein Problem. Google verlor zeitweise Teile des Search Index. Auch im Mai hatte es einen Vorfall gegeben, nach dem neue Inhalte bei Google nicht indexiert werden konnten. Und in der vergangenen Woche waren ähnliche Probleme erneut sichtbar geworden. Dieses wurde dann recht schnell behoben.

This issue is now resolved. Thanks for all your feedback along the way. Wishing you all a calm weekend!
— Google Webmasters (@googlewmc) August 9, 2019

Doch wie kommt es zu derlei Problemen? Nach einer Suchanfrage wird diese zum nächstgelegenen Data Center von Google transferiert, wo die SERPs generiert werden. Daher müssen Änderungen bei Seiten in allen Datenzentren weltweit abgebildet werden.
Google Data Center, © Google Nun werden Updates oft sukzessive über diverse Datenzentren ausgerollt. Als im April Änderungen am Search Index vorgenommen wurden, waren Teile des Bereitsstellungssystems ausgefallen; und das an einem Freitag. So waren einige Dokumente beim Update verloren gegangen und Google „verlor Teile des Search Index“. Sobald es in den sozialen Medien Berichte gab, war Google bereits dabei, den Search Index in den vorherigen, stabilen Status zurückzuführen.
Auch die Search Console war betroffen
Während es Probleme mit dem Search Index gab, war die Search Console ebenfalls betroffen. Denn einige Daten daraus entstammen dem Search Index. Sobald Google zu einer vorherigen Version des Search Index zurückkehren musste, wurde auch das Updating der Datengrundlage für die Search Console gestoppt. Das war der Grund für die Plateaus in den Reports mancher Nutzer.
Ein auffälliges Plateau in der Search Console, © Google Demnach waren einige Nutzer zunächst verwirrt; der Grund war, dass Google das Update für die Search Console um einige Tage verschieben musste.

Search Console is still recovering from the indexing issue we reported on last week. As a result, index coverage and enhancement reports were not updated recently & URL Inspector might not reflect live status, at the moment.
— Google Webmasters (@googlewmc) April 15, 2019

Andere Bugs bei Google sind mitunter aber unabhängig von Search Index-Problemen aufgetreten. Beispielsweise Probleme bei der Indexierung von neuem News Conent. Zudem begannen einige URLs den Googlebot zu Seiten zu lenken, die in keinem unmittelbaren Zusammenhang standen. Doch auch diese Unannehmlichkeiten konnten schnell behoben werden.

We’re aware of some indexing issues with Google News content. It appears to involve a limited number of publishers. We’re actively diagnosing the news issue now. This is not related to last week’s indexing issue, which was resolved.
— Google SearchLiaison (@searchliaison) April 16, 2019

Wie Google den Webmastern bei Problemen schnell weiterhelfen möchte
Eine unmittelbare Hilfe für die Seiten kann Google bei Indexierungsproblemen und ähnlichem nicht leisten. Das wichtigste ist, dass die Webmaster informiert werden, sobald sie Ungereimtheiten beim Traffic, in der Search Console usw. erkennen. Dazu setzt Google vor allem auf Kommunikation über Social Media, allen voran Twitter. Darüber hinaus finden Betroffene oder Interessierte Informationen in der Search Console, beispielsweise bei der Support-Seite Data Anomalies in Search Console, die aktuelle Problemfälle dokumentiert. Zusätzlich gibt Google direkt in der Search Console nun Benachrichtigungen an, wenn Daten durch Bugs so nicht mehr zutreffend sein könnten.
Benachrichtigung in der Search Console, Daten könnten kompromittiert sein, © Google Neben der unmittelbaren Kommunikation mit den Usern setzt Google aber auch auf interne Optimierung. In Sachen Kommunikation selbst resultierte das in einem Ansatz, um schneller in der Search Console Informationen zu posten, bei der Anomalien-Seite der Search Console direkt Bescheid zu geben und in hoher Frequenz zu twittern. So sollen auch künftig Probleme gleich transparent gemacht werden. Damit ließen sich die Webmaster rascher beruhigen.
In Bezug auf das bereits angeführte Problem im Mai gibt Google an, dass man es am 22. Mai um 5.30 Uhr kalifornischer Zeit entdeckte und bereits um 6.40 Uhr dazu twitterte.

We’re currently experiencing indexing issues that may cause stale search results in some cases. We’ll update this thread when we can provide more information.
— Google Webmasters (@googlewmc) May 22, 2019

Da es hier keinen langfristigen Effekt zu vermuten gab, wurde auf der Anomalien-Seite nichts veröffentlicht. Dennoch gibt es bei derlei Problemen immer Verwirrung. So arbeitet Google an einer umfassenderen Lösung zur Benachrichtigung in der Search Console. Diese zu implementieren dürfte jedoch länger dauern, betont Courson.
Nicht alle Probleme gehen von Google aus
Im Blogpost wird noch einmal eigens betont, dass der Großteil aller Indexierungs-Probleme von individuellen Seiten und Fehlern oder Problemen bei diesen ausgeht. Mithilfe der Search Console und insbesondere des Help Centers für die Search Console können Webmaster jedoch am Debugging arbeiten, nachdem dort die Fehler erkannt wurden. Zur Fehlererkennung selbst finden sich diverse Tools im Google-Universum.
Wer trotzdem noch ein Problem feststellt, das sich nicht lösen lässt oder sogar Teil einer Problematik bei Google sein könnte, kann die Suchmaschine direkt kontaktieren. Entweder über die Webmaster Community, über den persönlichen Kontakt,  über Feedback Tools der Produkte oder in den sozialen Medien, bei YouTube oder Twitter. Das heißt für Webmaster, dass sie sowohl ihre eigenen Daten als auch die Informations-Kanäle von Google im Auge behalten sollten. Denn oftmals werden die Probleme sehr schnell behoben; und das wird auch kommuniziert. Wer durch ein auftretendes Problem Nachteile beim Traffic etc. erfährt, kann sich von der Transparenz zunächst wenig Wiedergutmachung erhoffen, weiß aber zumindest den Grund und darüber Bescheid, dass wohl auch andere Websites mit dem Problem zu kämpfen haben.

Google warnt: Eingebettete Instagram-Bilder als SEO-Problem

Google warnt: Eingebettete Instagram-Bilder als SEO-Problem

Ein Seitenbesitzer beklagte deutliche Traffic-Verluste über die Google Bildersuche, nachdem er verschiedene Bilder von Instagram in seine Inhalte integriert hatte. Nach Tests von John Mueller und Glenn Gabe wird deutlich, dass das Einbetten von Instagram-Bildern zum SEO-Problem werden kann. Denn über ein noindex Robots Meta Tag mach Instagram klar, dass die Bilder nicht mit der Seite zusammen indexiert werden sollen.
Bilder von Instagram können Search Traffic über Bildersuche beeinträchtigen
Diese Erkenntnisse teilt SEO-Experte Barry Schwartz bei Search Engine Roundtable. In einem Google Hangout wurde Googles Webmaster Trends Analyst John Mueller auf die Problematik angesprochen. Es ging um einen 43-prozentigen Rückgang in Image Search-Klicks, über Nacht, bezogen auf einen ansonsten verlässlichen Artikel. Daraufhin prüfte Mueller, was es mit den Instagram-Bildern auf sich hat, sobald man diese in seinen eigenen Content integriert. Die Antwort: der Einbettungscode enthält ein Robots Meta Tag mit noindex-Angabe. So wird durch den Code von Instagram verhindert, dass das entsprechende Bild bei Google Bilder im Kontext der Seite, bei der es eingebaut wurde, rankt. Mueller erklärt:
But what really kind of breaks the story for us is that within the content that is embedded from from Instagram on with within the iframe. They use a no index robots meta tag. And this meta tag tells us that you don’t want those images indexed together with the page itself. So if we just look at that iframe content we can recognize that there’s an image, there we can crawl that image but with that meta tag you’re basically telling us that you don’t want this image index together with that landing page.
[embedded content]
Auch Glenn Gabe von Search Engine Land machte den Test und stellte das Ergebnis bei Twitter dar.

Via @johnmu: Switch from normal embedded images to Instagram embeds & see a big drop in image search traffic? That’s because IG uses iframes & the meta robots tag using noimageindex. That’s a big problem. John tested this & I just ran a quick test too: https://t.co/kyUwQ1O3Jnpic.twitter.com/CYDIcXWtr5
— Glenn Gabe (@glenngabe) August 12, 2019

Der Verlust von Search Traffic über die Bildersuche ist demnach eine Folge des Einbettens der Instagram-Bilder. Dieses Einbetten kann für den Inhalt sinnvoll sein, wenn Kommentare oder Likes, die angezeigt werden, Relevanz besitzen. Für Google sind derlei eingebettete Elemente jedoch deutlich schwieriger zu indexieren. Um solche Bilder auch bei Google indexiert zu wissen, sodass womöglich der Search Traffic über die Bildersuche gewährleistet werden kann, müssten Webmaster die Bilder ein zweites Mal integrieren, also noch einmal als Bild selbst in den HTML Code einschreiben beispielsweise.
Letztlich müssen sich die Seitenbetreiber aber überlegen, ob die Content-Qualität durch die Einbettungen verstärkt wird und wie wichtig im Vergleich der Traffic über die Bildersuche ist. Eine Optimierung in beide Richtungen ist möglich, braucht aber Zeit und Aufwand. John Mueller klärt im Video detaillierter darüber auf.

Googles Guide: Was Webmaster über Core Updates wissen sollten

Googles Guide: Was Webmaster über Core Updates wissen sollten

Updates gibt es bei Google jeden Tag, um die Suchergebnisse zu optimieren. Das bekommen Webmaster in dem Moment gar nicht unmittelbar mit. Größere Auswirkungen haben jedoch Core Updates. Zwar erklärt Google immer wieder, dass man sich auf diese nicht direkt einstellen kann. Doch stellt das Unternehmen nun einen klaren Guide bereit, der zentrale Informationen zu den bedeutenden Veränderungen liefert.
Das sollten Webmaster laut Google über Core Updates wissen
Änderungen in Bezug auf die eigene Suche sind Googles täglich Brot. Allein im vergangenen Jahr hat die Suchmaschine mehr als 3.200 Veränderungen vorgenommen. Diese Updates reichen vom kleinen Make-Up am Layout bis hin zu den Core Algorithm Updates. Im Juni gab Google Webmastern erstmals im Vorwege eines solchen Core Updates darüber Bescheid.

Tomorrow, we are releasing a broad core algorithm update, as we do several times per year. It is called the June 2019 Core Update. Our guidance about such updates remains as we’ve covered before. Please see this tweet for more about that:https://t.co/tmfQkhdjPL
— Google SearchLiaison (@searchliaison) June 2, 2019

In der Folge bestätigte Danny Sullivan von der Google SearchLiaison, dass man künftig wohl immer vorab ankündigen werde, wenn Core Updates im Raum stehen. Dabei betont das Unternehmen der relevantesten Suchmaschine der westlichen Welt, dass die Werbmaster keine unmittelbaren Reaktionen auf die Updates ausarbeiten können. Vielmehr geht es um den dauerhaft wichtigsten Content für die Suchenden:
We understand those who do less well after a core update change may still feel they need to do something. We suggest focusing on ensuring you’re offering the best content you can. That’s what our algorithms seek to reward ….
Mehr Insights dazu, was ein Core Update auslösen kann und wie Webmaster schon im Vorwege gut gerüstet sind, damit ihre Seiten langfristig gut ranken, liefert nun ein ausführlicher Blogpost des Google Webmaster Central Blog. Darin wird etwa auch angegeben, dass die Core Updates, die mehrmals im Jahr durchgeführt werden, Google Discover betreffen können.
Das ist das Ziel der Core Updates
Bei den großen Änderungen wird nicht auf spezifische Seiten abgezielt. Vielmehr geht es Google darum, den Zugriff auf Content immer wieder zu verbessern. So kann es sein, dass Inhalte, die zuvor unterrepräsentiert waren, ein besseres Ranking erhalten. Dadurch rutschen mitunter zwangsläufig andere Seiten ab, sie haben aber nichts falsch gemacht – und können demnach auch nicht direkt auf das Update reagieren. Google führt ein Beispiel an. Eine Liste der Top 100 Filme, die 2015 erstellt wurde, könnte 2019 anders aussehen, weil neue Filme dazugekommen sind. Außerdem könnten alte Filme neu analysiert werden und in der Folge eine bessere Platzierung erhalten.
Wie bei den Filmen muss bei den Seiten der Inhalt stimmen, der für die Nutzer langfristig relevant ist. Bereits 2011 hatte Google daher etwas Hilfestellung geleistet, um den eigenen Content auf Qualitätsmerkmale hin zu überprüfen. Nun wurden die Hinweise überholt. Die folgenden Fragen sollten Webmaster nach der relevanten Meinung Googles an ihren Content stellen, um dessen Qualität zu analysieren:
Enthält der Inhalt originäre Informationen, Berichte, Recherchen oder Analysen?
Enthält der Inhalt eine umfassende, vollständige oder umfassende Beschreibung des Themas?
Bietet der Inhalt aufschlussreiche Analysen oder interessante Informationen, die nicht offensichtlich sind?
Wenn der Inhalt auf anderen Quellen basiert, wird dann vermieden, diese Quellen einfach zu kopieren oder umzuschreiben, und werden stattdessen ein erheblicher Mehrwert und Originalität erzielt?
Bietet die Überschrift und/oder der Seitentitel eine beschreibende und hilfreiche Zusammenfassung des Inhalts?
Vermeidet es die Überschrift und/oder der Seitentitel, übertrieben oder schockierend zu wirken?
Ist dies die Art von Seite, die du mit einem Lesezeichen versehen, mit einem Freund teilen oder empfehlen möchtest?
Würdest du erwarten, dass dieser Inhalt in einer gedruckten Zeitschrift, Enzyklopädie oder einem Buch zu sehen ist oder von diesen referenziert wird?
Wenn all diese Fragen mit ja beantwortet werden können, hat dein Content bereits gute Karten, um bei Google ein gutes Ranking zu erlangen. Immer vorausgesetzt, dass auch diverse Ebenen optimiert werden, seien es Bilder, Meta Tags, Strukturierte Daten usw. Das Set der Fragen ist hiermit aber noch nicht beendet. Es folgen Fragen zur Expertise bei deinem Content:
Stellt der Inhalt Informationen so dar, dass du ihm vertrauen möchtest, z. B. eindeutige Quellenangaben, Nachweise für das erforderliche Fachwissen, Hintergrundinformationen zum Autor oder zur Website, auf der er veröffentlicht wird, sowie Links zum Autor oder zur About Page?
Wenn du dich mit der Website befasst hast, auf der der Inhalt erstellt wurde, würdest du den Eindruck gewinnen, dass sie als vertrauenswürdige oder allgemein anerkannte Autorität in Bezug auf ihr Thema gilt?
Wird dieser Inhalt von einem Experten oder Enthusiasten geschrieben, der das Thema nachweislich gut kennt? Ist der Inhalt frei von leicht zu überprüfenden sachlichen Fehlern?
Würdest du diesen Inhalten bei Fragen zu deinem Geld oder deinem Leben Vertrauen schenken?
Mehr Fragen, die guter Content positiv beantworten sollte
Neben solch inhaltlichen Aspekten müssen die Websites, die bei Google ein Top Ranking erhalten wollen, natürlich auch äußerlich gut in Schuss sein. Chic und pragmatisch ist die Devise. Dies sind Googles Fragen an dein Layout und den ersten Eindruck:
Ist der Inhalt frei von Rechtschreib- oder Stilproblemen?
Wurde der Inhalt gut produziert oder erscheint er schlampig oder hastig produziert?
Wird der Inhalt in Massenproduktion von einer großen Anzahl von Entwicklern erstellt oder an diese ausgelagert oder über ein großes Netzwerk von Websites verteilt, sodass einzelne Seiten oder Websites nicht so viel Aufmerksamkeit oder Sorgfalt erhalten?
Enthält der Content eine übermäßige Menge an Anzeigen, die vom Haupt-Content ablenken oder diesen beeinträchtigen?
Werden Inhalte auf Mobilgeräten gut angezeigt, wenn sie auf diesen angezeigt werden?
Wenn deine Inhalte nach all diesen Fragen immer noch einen guten Eindruck machen, bleibt zu prüfen, wie sie im Vergleich zur Konkurrenz wirken. Auch hierzu hat die Suchmaschine zwei konkrete Fragen in petto:
Bietet der Inhalt im Vergleich zu anderen Seiten in den Suchergebnissen einen erheblichen Mehrwert?
Scheint der Inhalt den echten Interessen der Besucher der Website zu dienen oder scheint er nur zu existieren, da jemand versucht zu ermitteln, was in Suchmaschinen gut rankt?
Wer unabhängig von seiner Content-Qualität deutliche Einbußen durch Core Updates erfährt, sollte immer auch einen Audit der stark betroffenen Seiten in Betracht ziehen. Zusätzliche Informationen zur Ermittlung guten Contents liefern Googles Quality Rater, die überwachen, ob der Algorithmus funktioniert. Die Quality Rater Guidelines geben darüber mehr Aufschluss. Dabei haben diese Rater keinen Einfluss auf Rankings; sie geben Google eher Tipps bei lokalen Ergebnissen. Aber wer weiß, wie diese Rater guten Content bewerten und einschätzen, kann daran angelehnt seine eigenen Inhalte optimieren.
Stichwort E-A-T
Drei Begriffe sind für guten und SEO-relevanten Content zentral: Expertise, Authoritativeness und Trustworthiness, oft mit E-A-T abgekürzt. Autoren und SEO-Experten wie Glenn Gabe oder Lily Ray haben diesbezüglich schon beschrieben, wie man aufgrund von E-A-T seine SEO unterstützen kann.
Wer seinen Content aufpoliert, beim letzten Core Update jedoch im Ranking eingebüßt hat, kann meist erst beim nächsten Core Update mit einer Verbesserung rechnen. Jedoch ist es dank der sehr häufigen kleineren Updates im Search-Bereich auch möglich, schneller Plätze in den SERPs gut zu machen. Verbesserungen garantieren trotzdem keine großen Veränderungen in den Rankings. Langfristig zahlen sie sich aber so oder so aus. Für den Nutzer und bei Google. Dennoch setzt Googles Algorithmus auf Signale und kann die Inhalte trotz aller künstlicher Intelligenz nicht wie wir Menschen verstehen. Deshalb wird jedes Core Update, bevor es live geht, von Google getestet, inklusive Feedback-Schleife. Aber:
Of course, no improvement we make to Search is perfect. This is why we keep updating. We take in more feedback, do more testing and keep working to improve our ranking systems.
So kann die Googlesuche nach und nach für die Suchenden immer besser gemacht werden. Wer als Webmaster dazu beiträgt, hat gute Chancen sich mit einem guten Ranking zu platzieren. Dazu gilt es, auf die Hinweise von Google zu achten; entweder im Blog oder immer wieder beim Google Webmasters Account auf Twitter. Von relevantem Content haben langfristig alle Parteien etwas; und er feit im Bestfall gegen die Core Updates.

Gender Bias bei Google? Wie gut rankt die Zahnärztin für Zahnarzt?

Gender Bias bei Google? Wie gut rankt die Zahnärztin für Zahnarzt?

Das Beispiel ist einfach: wer einmal „Zahnarzt“ und „Zahnärztin“ googelt, erhält klar verschiedene Ergebnisse. Die Gender-Unterscheidung, zumindest sprachlich, bedeutet auch differente SERPs. Doch ist Google wirklich so sehr auf die maskuline Form gepolt, dass es für explizit feminin eingetragene Berufsgruppen schwer wird, Traffic zu erlangen? Malte Landwehr von Searchmetrics hat den Test gemacht – und erstaunliche Ergebnisse hervorgebracht.
72 Prozent des Suchvolumens für maskuline Berufsgruppen
Um der Diskussion rund um Gender Bias bei der Suchmaschine eine neue Perspektive hinzuzufügen, hat Malte Landwehr von Searchmetrics, seines Zeichens SEO-Experte, eine eigene Analyse durchgeführt, von der er bei Facebook berichtet. Dazu hat er 65 Berufe sowohl in der weiblichen als auch männlichen Schreibweise geprüft. Die erste Erkenntnis macht eine vergleichende Analyse jedoch schon hinfällig. Die Ergebnisse bei den unterschiedlichen Suchanfragen unterscheiden sich so sehr, dass eine Vergleichbarkeit nicht möglich ist. Als Beispiel führt er die verschiedenen SERPs für die Suchanfragen „Zahnarzt“ und „Zahnärztin“ an.
Landwehrs Test zu Zahnarzt und Zahnärztin (mit einem Klick aufs Bild gelangt ihr zur größeren Ansicht), © Malte Landwehr Reproduzieren wir die Suchanfragen, erhalten wir auch unterschiedliche Ergebnisse. Zudem finden sich für die Anfrage „Zahnarzt“ gleich vier Anzeigen, für „Zahnärztin“ keine.
Zahnarzt vs. Zahnärztin bei der Googlesuche (mit einem Klick aufs Bild gelangt ihr zur größeren Ansicht), Screenshot Google Ob Berlin oder Hamburg, die Ergebnisse differieren klar. Im Test stellte Landwehr fest, dass 72 Prozent des Suchvolumens für Berufsgruppen auf maskuline Formen entfallen. Nur bei einer seiner 65 getesteten Berufsgruppen war die feminine Form mit einem höheren Suchvolumen bedacht: bei der Kosmetikerin.
Weitere Werte zur Suche im Gender-Kontext
Nicht nur, dass das Suchvolumen für maskuline Formen wie Steuerberater oder Anwalt meist höher war, bei 80 Prozent der Begriffe lag dieses Volumen für feminine Begriffe sogar unter zehn Prozent. Und bei 95 Prozent der Berufe waren 99 Prozent des Suchvolumens an die maskuline Schreibweise gebunden.
Während wir nicht reproduzieren konnten, dass bei der Unterscheidung von „Immobilienmakler“ und „Immobilienmaklerin“ zunächst Maps bei der männlichen, ein Video Slider bei der weiblichen Form erscheint, tauchten die Videos in den SERPs an unterer Stelle doch auch auf.
SERPs für Immobilienmakler und Immobilienmaklerin bei Malte Landwehr (mit einem Klick aufs Bild gelangt ihr zur größeren Ansicht), © Malte Landwehr Das gleiche Ergebnis wie Landwehr erhalten wir jedoch, wenn wir nach „Möbelbauerin“ suchen. Google geht davon aus, dass wir den „Möbelbauer“ meinen und gibt entsprechende Ergebnisse preis.
Bei der Möbelbauerin wird direkt auf den Möbelbauer verwiesen (mit einem Klick aufs Bild gelangt ihr zur größeren Ansicht), Screenshot Google Die Diskussion um die Gender-Frage bei Google
Was bedeuten diese Ergebnissen nun? Einerseits basieren sie auf dem, was die Mehrheit der Suchenden eingibt. Und das wird in den meisten Fällen eine maskuline Form sein. Das ist, vereinfacht gesprochen, einer historisch gewachsenen Vereinfachung geschuldet, ließe sich argumentieren. So sagen die meisten wohl „Ich gehe zum Arzt“ oder „Sie brauchen einen Anwalt“, ohne damit zu meinen, dass es immer die männlichen Vertreter sind. Immerhin sind diese und viele andere Berufe schon sehr lange keine Männerdomänen mehr. Daher ist auch davon auszugehen, dass Suchende, die bei Google Zahnarzt eingeben, keine Unterscheidung machen würden zwischen weiblichen und männlichen Vertretern der Berufsgruppe.
Andererseits ist es für Zahnärztinnen und Co. schwierig, Traffic über die Suchmaschine zu erhalten, wenn nicht auf die maskuline Form hin optimiert wird. Die Diskussion bleibt spannend: geht es tatsächlich um Gender Bias, könnte Googles Algorithmus die männlichen und weiblichen Formen als gleichberechtigt erkennen, unter der Prämisse, dass die Suchenden nicht speziell nach Geschlecht suchen? Aber was wäre dann, wenn eine Person spezifisch einen Frauenarzt sucht? Oder umgekehrt, dann könnte Google nicht die besten und passendsten Ergebnisse liefern. Interessant ist auch, dass die Autocomplete-Funktion von Google die weiblichen Formen oft gar nicht bedenkt, wie ein User im Kommentar angibt. Hier ein Beispiel:
Autocomplete, die Imkerin fehlt, Screenshot Google Es bleibt gewissermaßen bei einem Problem des Reproduzierens. Die Nutzer setzen im Gros auf männliche Begriffe, Googles Technologie reagiert entsprechend und die femininen Formen müssen spezifisch gesucht werden, was, wie Landwehr zeigt, doch sehr selten vorkommt; noch verstärkt durch das Autocomplete-Phänomen. Zum Problem wird dann, dass, obwohl wir mit dem meist auch kürzeren männlichen Suchbegriff Frauen wie Männer meinen, meist nur Männer in den SERPs auftauchen. Es sei denn, dass Frauen auf männliche Keywords hin optimieren; was sie tun müssen, um mehr Traffic zu erlangen. Ob das so gendergerecht ist, ist diskutabel. Sicherlich ist der Algorithmus nicht gleichberechtigend, allerdings ist er aus Nutzungsmustern erwachsen, die erst aufgebrochen werden müssten. Die Frage ist: wer muss den ersten Schritt machen, Google oder die Nutzerschaft? Wahrscheinlicher dürfte sein, dass Google weibliche wie männliche Entitäten gleich einschätzt. Denn dass die User vermehrt die femininen Formen googlen, erscheint auf kurze Sicht noch illusorisch. Wer übrigens beide Begriffe eingibt, erhält auch Ergebnisse aus beiden Geschlechtern.
Verfolgt die Diskussion bei Malte Landwehrs Post und schaut euch seine Erkenntnisse an.

Googles Testtools nutzen jetzt den Evergreen Chromium Renderer

Googles Testtools nutzen jetzt den Evergreen Chromium Renderer

Mit diversen Testtools von Google können Webmaster prüfen, ob ihre Seiten mobilfreundlich sind, URLs fehlerfrei funktionieren und vieles mehr. Nun gibt Google bekannt, dass das Rendering in diesen Tools aktualisiert wird. Denn der zuletzt vorgestellte Evergreen Googlebot wird von jetzt an bei den Tools rendern.
Evergreen Googlebot kommt bei Testtools zum Einsatz
Bei der I/O 19 stellte Google den Evergreen Googlebot vor. Dabei wird von Chrome 41 als Rendering Engine zur aktuellen stabilen Version von Chromium gewechselt. Das heißt, die  aktuellste stabile Chromium-Version wird als Grundlage genommen, um JavaScript auszuführen und Seiten zu rendern. Da dieser Googlebot je mit der Version von Chrome geupdatet wird, wurde er Evergreen genannt.
Per Blogpost gab Google nun an, dass ein Update der Testing Tools auch zur Folge hatte, dass dieser Evergreen Googlebot für das Rendering bei ihnen zuständig ist. Ein Beispiel für die Effektivität des neuen Bots zeigt eine mit JavaScript erstelle Demo einer Seite, die erst mit dem neuen Bot sichtbar wird.
Beispiel für alten und neuen Googlebot, © Google Der Google Crawler beziehungsweise der User Agent bleibt jedoch zunächst der gleiche wie bisher. Google wird in einem Update aber auch hier Änderungen durchführen, die demnächst bekanntgegeben werden sollen.
Was die News für Websites bedeuten
Die neuen Features, die den Googlebot ausmachen, werden für Webmaster ebenfalls über die Testtools erfahrbar gemacht. So lässt sich einsehen, was der Googlebot selbst „sieht“. Websites, die ES6+, Web Components oder 1000+ New Web Platform Features nutzen, werden von nun an über die aktuellste stabile Chromium-Version gerendert, sowohl in den Testtools als auch via Googlebot.
Die aktuelle Testversion zeigt den Content der Seite, die ältere nicht, © Google Da Googles Testtools anzeigen sollen, wie der Googlebot die Seiten wahrnimmt, wurden diese Tools insofern auf den neuesten Stand gebracht, dass sie ebenfalls den gleichen Renderer wie der Googlebot als Grundlage haben. Die folgenden Tools sind laut Google betroffen:
Aufgrund von Feedback der User hatte Google besonders diese Tools auf die Nutzung des aktuelleren Evergreen Googlebots umgestellt. Nutzer Jon Henshaw zeigte sich bei Twitter begeistert.

This is so helpful. Thanks to the @googlewmc team for updating several of their tools 👏https://t.co/CMnEffC3fS
Googlebot for desktop displays a large portion of the page. I would love to see the same for the smartphone crawler to make it easier to troubleshoot issues. @JohnMupic.twitter.com/CB2PpFHKje
— Jon Henshaw (@henshaw) August 7, 2019

Dieses Update ermöglicht vielen Webmastern also eine noch bessere Übersicht über ihren Seiteninhalt und wie er von Google bei Testtools bewertet wird. Wir dürfen gespannt auf Updates zum User Agent und die weitere Entwicklung im Webmaster-Kosmos sein. Gute Tipps hierzu finden sich ebenso bei der neuen YouTube-Serie der Google Webmasters, #AskGoogleWebmasters, in der John Mueller knapp zu spannenden und relevanten Fragen referiert.

Google testet Karussell für Bilder aller Listings im Local Pack

Google testet Karussell für Bilder aller Listings im Local Pack

Wenn wir bei Google nach lokalen Unternehmen suchen, lassen wir uns auch von den Bildern leiten, die diese darstellen. Und da Google sowohl das Karussell-Format als auch Tests für das Layout schätzt, lässt sich derzeit beobachten, dass für einzelne Listings im Local Pack ein Bilder-Karussell für die Suchenden zur Verfügung steht.
Mehr Einsicht und Vertrauen schaffen? Bilder-Karussell in Googles Local Pack
In den diversen Ansichten, die Google verschiedenen Nutzern bietet, ist jüngst ein neuer Anblick aufgetaucht. Dabei handelt es sich um das Karussell-Format, das im Local Pack ausgemacht wurde. Barry Schwartz berichtet bei Search Engine Roundtable davon und bezieht sich auf einen Tweet von Nutzer Francisco CV.

2 pics for each listing in local pack. 1 picture for Ads. It’s new? @Optimisey @mblumenthal @JoyanneHawkins @GuideTwit @rustybrick @TheSocialDude @TheSocialDude @tcolling @clairecarlile @tcolling pic.twitter.com/oHcVsYUvc2
— Francisco CV (@FrancastroKW) August 6, 2019

In diesem Fall sind es nur zwei Bilder für die Listings, die Google für Möbelhäuser im Bereich Málaga in Spanien aufführt.
Vermutlich handelt es sich um einen weiteren Test von Google, der den einzelnen Unternehmen im Local Pack ermöglicht, die Nutzer mit diversen Bildern zu überzeugen. Wir selbst konnten den Test nicht reproduzieren. Klickt man bei Google mobil jedoch auf weitere Orte, ist für die Nutzer ohnehin die Option gegeben, diverse Bilder der Unternehmen durchzuswipen. So könnte dieser Test mit den zwei Bildern im Local Pack Listing auch dazu bestimmt sein, zu prüfen, welches davon die User eher anspricht. Wahrscheinlicher bleibt jedoch, dass den Suchenden einfach noch mehr Kontext zu den lokalen Geschäften geboten würde. Unklar ist noch, ob Google die Bilder eigens von der Website extrahiert oder das Unternehmen diese im GMB-Profil angeben kann.
Da es sich aber vorerst nur um einen begrenzten Test handelt, werden die Unternehmen selbst wenig Einfluss auf die Entwicklung ausüben können. Profitieren könnten sie letztlich allerdings, wenn sie die hochwertigsten Bilder zur Verfügung stellen – und Nutzer auf diesem Wege von sich überzeugen. Dazu braucht es aber auch eine gute Bewertung, komplette Angaben zu Öffnungszeiten etc. und vor allem eine gute Positionierung bei Google. Alles Gründe, das Profil bei Google My Business schon jetzt zu optimieren. Und qualitative Bilder zu integrieren.

The Digital Bash – SEO Special: Geballte Kernkompetenz der Suchmaschinenoptimierung

The Digital Bash – SEO Special: Geballte Kernkompetenz der Suchmaschinenoptimierung

Das popuäre Vormittags-Webinar im Konferenzformat lässt euch das Sommerloch vergessen und bietet stattdessen innovative und praxisorientierte Ansätze für eine gelungene SEO. Die Sonderausgabe des Digital Bash zu unserem Themen-Special SEO findet am 15. August statt. Hochkarätige Branchenexperten liefern wertvolle Insights: ob 5 goldene SEO-Regeln, die Zukunft von Search und Google oder der ganz besondere Live SEO Check, hier kommt jeder Website-Betreiber und Interessierte auf seine Kosten.
Melde dich jetzt an und profitiere von der praxisorientierten Expertise – alles komplett ortsunabhängig und von welchem Device du möchtest!
Jetzt kostenlos Live-Zugang und Aufzeichnung sichern!
Das SEO Special mit Branchenexperten von Spiegel ONLINE und Co. 
Mit The Digital Bash, unserer erfolgreichen Web-Konferenz-Reihe, liefern wir euch stets branchenrelevante Insights zu den spannendsten Themen und das Ganze aus ganz speziellen Perspektiven. Am 15. August erhaltet ihr zwischen 9 und 12 Uhr am Vormittag bei der Live-Vortragsreihe, einem Projekt von OnlineMarketing.de, Einblick in tiefe Fachkenntnisse aus dem Bereich der Suchmaschinenoptimierung. Neben fundierten Vorträgen zur Zukunft der Suche werden Tools zur Optimierung deiner Website und eine Reihe praxisbezogener SEO-Grundregeln präsentiert. Ganz besonders bei dieser Ausgabe ist jedoch der zweiteilige Live SEO Check, bei dem eine ausgewählte Website auf Herz und Nieren geprüft wird. Vielleicht deine?
Robin Petzold von Fairrank wird einen Live SEO Check durchführen. Das Beste für alle Teilnehmer: wer eines der 2.500 kostenlosen Tickets erhält, sichert sich zugleich einen Live-Zugang und die Aufzeichnung der Veranstaltung. Dabei musst du für die Konferenz nicht vor Ort sein, sondern kannst sie bequem vom Desktop aus, aber auch mobil verfolgen; egal, wo du bist. Die größte Web-Konferenz der Digitalbranche zeigt sich digitalaffin und interaktiv. Denn neben dem Live SEO Check ist im Konzept des Digital Bash immer Raum für Fragen vorhanden, die direkt beantwortet werden können.
Best Practices für Einsteiger und Profis
Patrick Klingberg Das Programm für die Sonderedition des Digital Bash verspricht für alle, die die SEO berührt, einen spezifischen Mehrwert. Nach einer Einleitung durch OnlineMarketing.de-Geschäftsführer Marc Stahlmann möchte SEO-Experte und CEO der artaxo GmbH, Patrick Klingberg, dein Leben verändern – oder zumindest deine Website. Dazu präsentiert er neun konkrete Tools.
Can Günes Can Günes, der Head of SEO des Unternehmens Fairrank mit langjährigem Know-how in der Suchmaschinenoptimierung, wird beim ersten Teil des Live SEO Checks eine ausgewählte Website in Echtzeit analysieren und dabei Punkte wie Indizierbarkeit, Informationsarchitektur, Onpage, Offpage, Pagespeed, Usability usw. prüfen. Eine Erfahrung, von der alle Teilnehmer etwas lernen können.
Heiko Stammel Ein weiteres praxisorientiertes Erfolgsrezept wird dann von Heiko Stammel serviert. Seines Zeichens Technical SEO bei Spiegel ONLINE, wird Stammel die fünf goldenen SEO-Regeln zum Besten geben. Im Anschluss freut sich der Projektleiter SEO von Fairrank, Robin Petzold, auf Teil zwei des Live SEO Checks, der genauso spannende Insights zu Problemen und Potentialen bei einer Websites hervorbringen dürfte.
Alexander Breitenbach Schließlich wird Alexander Breitenbach von Ryte einen Ausblick auf die Suche der Zukunft geben und dabei besonders Taktgeber Google in den Kontext einordnen. Marc Stahlmann schließt wie gewohnt mit den Key Takeaways und entlässt die Teilnehmer am Mittag mit einem Plus an Expertise in den Tag – der dann sogar noch für die SEO genutzt werden kann.
Die Agenda im Überblick:
09.00 – 09.10 Uhr: Opening The Digital Bash – SEO Special / Marc Stahlmann, OnlineMarketing.de
09.10 – 09.40 Uhr: 9 Tools, die Dein Leben oder zumindest deine Website verändern / Patrick Klingberg, artaxo
9.40 – 10-10 Uhr: Live SEO Check einer Teilnehmer-Website #1 / Can Günes, Fairrank
10.10 – 10.40 Uhr: 5 goldene SEO-Regeln: Mein Erfolgsrezept für das Optimieren von Webseiten / Heiko Stammel, Spiegel ONLINE
10.40 – 11.10 Uhr:Live SEO-Check einer Teilnehmer-Website #2 / Robin Petzold, Fairrank
11.10 – 11.40 Uhr: Google and the Future of Search / Alexander Breitenbach, Ryte
11.40 – 12.00 Uhr: Key Takeaways und Abschluss / Marc Stahlmann, OnlineMarketing.de
Mit 2.500 ist die Teilnehmerzahl für alle, die ihre Suchmaschinenoptimierung und ihre Websites selbst aufs nächste Level heben möchten, begrenzt. Die Live-Teilnahme und der Zugang zur Aufzeichnung kosten dich kein Geld. Sei also schnell und sichere dir jetzt dein Ticket für den Wissensvorsprung in der Digitalbranche mit The Digital Bash und dem SEO Special von OnlineMarketing.de. Vielleicht findest du dich dann schon bald ganz weit oben in den SERPs wieder.
Jetzt kostenlos Live-Zugang und Aufzeichnung sichern!

Wortanzahl kein Rankingfaktor bei Google? Es kommt auf die Suchintention an

Wortanzahl kein Rankingfaktor bei Google? Es kommt auf die Suchintention an

Wenn John Mueller sich äußert, hört die SEO-Gemeinde zu. In einem Post bei Reddit hat der Google Webmaster Trends Analyst noch einmal betont, dass die Wortanzahl selbst kein Rankingfaktor bei der Suchmaschine ist. Allerdings ist Kontext das Zauberwort für den Content.
Der Reddit Thread sorgt für Diskussionen
In einem Post bei Reddit fragte ein User nach einer Lösung, um die Wörter einzelner Seiten in den SERPs zählen zu können. Daraufhin schaltete sich Mueller ein und bekannte:
Word count is not a ranking factor. Save yourself the trouble.
Diese simple und knappe Äußerung, von der auch Barry Schwartz berichtete, könnte Webmastern einige Mühe ersparen, wenn sie ihre Inhalte nach der Wortanzahl optimieren wollten. Allerdings herrscht Uneinigkeit darüber, wie man mit der Wortmenge beim Content umzugehen hat, um gute Ergebnisse bei Google zu erzielen. Ein User kommentiert Schwartz’ Beitrag und erklärt, dass die Reduzierung von Wörtern beim Content bessere Ergebnisse hervorbringt, wenn Überflüssiges entfernt wird. Das leuchtet ein. Relevanter als eine Konzentration auf die Wortanzahl ist ohnehin das Bestreben, die Suchanfrage qualitativ und verständlich zu beantworten.
Malte Landwehr von Searchmetrics antwortet Mueller im Thread und führt Beispiele für Suchanfragen an, bei denen die durchschnittliche Wortanzahl der Top Ergebnisse deutlich differiert:
But knowing that for the keyword ,how to file my taxes‘ the average word count of every document in the Google top 20 is 2000 while it is just 200 words for the keyword ,how many calories in a cheeseburger‘, tells you that for one of these topics you should probably write well structured long form content while for the other it is all about providing a quick answer. No?
Damit präzisiert er nur, dass es darum geht, die Intention des Suchenden zu antizipieren und seine Informationsanfrage bestens zu bedienen. Dass eine Erklärung zu Steuerfragen längere Inhalte als beste Ergebnisse hervorbringt als eine vergleichsweise simple Erklärung zur Kalorienzahl bei Cheeseburgern, liegt hier in der Natur der Sache. Und damit erklärt sich auch, warum die Wortanzahl kein Rankingfaktor ist: die Zahl der Wörter sollte bei all den diversen Suchanfragen für die Ergebnisse nicht ausschlaggebend sein, sondern vielmehr die Relevanz und Nützlichkeit.
Im Support-Bereich der Google Search Console finden sich Basics für die gelungene SEO. Die Wortanzahl mag das Ranking über Googles Algorithmus nicht direkt beeinflussen; wer mit seinem Inhalt aber ganz oben in den SERPs landen möchte, muss wissen, wie viel Content und Wörter es braucht, um die entsprechende Suchanfrage zu bedienen. Da lohnt zuweilen auch die Analyse der Konkurrenz oder vergleichbarer Suchanfragen.