Wertvoller Content – was zeichnet ihn aus?

Wer kann was Dummes, wer was Kluges denken,
was nicht die Vorwelt schon gedacht.
Goethe, Faust II, VV 6809-10

Wertvoller Content wird gepriesen als die ultima ratio des digitalen Marketing. Allerdings frage ich mich, ob man dieser Wortkombination überhaupt einen Begriff unterlegen kann. Aber vielen Autoren*innen scheint das zu gelingen. Wenigstens suggeriert das die Abfrage bei Google: “wertvollen content” findet Google über 30.000 Mal, “wertvoller Content” in dieser Schreibweise immerhin noch 2.400 Mal.

Aber was ist wertvoller Content?

Nähern wir uns dem Begriff einmal mit folgender Überlegung. Wertvoll ist das, was knapp oder gar selten ist, und zugleich gefragt. Wenn das so ist, dann ist der Content über wertvollen Content wohl nicht wertvoll; denn 30.000 Fundstellen signalisieren wohl kaum Knappheit.

Der Wert von Content ist abhängig von der Lesesituation

Gehen wir das Thema von einer anderen Seite an. Man wird mir zustimmen, dass die Kenntnis eines Umtauschkurses zwischen Schweizer Franken und Britischem Pfund nicht per se zu wertvollem Content erklärt werden kann. Eine Eingabe bei Google “umrechnung schweizer franken britische pfund” liefert mir knapp 82.000 Ergebnisse. Und Google beantwortet mir die Frage auch direkt: Ein Schweizer Franken = 0,8 (20.07.2021) Pfund Sterling, ich muss noch nicht einmal mehr eine weitere Seite aufrufen. Als Wertpapierhändler, der binnen Sekunden über einen Kontrakt entscheiden soll, kann diese Information sehr wertvoll sein. Es kommt auf die Situation an.

Situationsbedingter Content-Wert

Der Wert von Inhalten hängt demnach von meiner Fragestellung ab und davon, wie dringend ich eine Information benötige. Wenn ich Pizzerien in Heidelberg suche, plane ich ggf. einen Besuch in der kommenden Zeit. Ich schicke also eine allgemeine Anfrage. Suche ich “gute pizzeria in der nähe”, dann habe ich wohl Hunger und brauche eine rasche und zielgenaue Antwort.

Welche Fragen beantwortet mein Inhalt?

Der Wert von Content dürfte sich also daran bemessen, inwieweit ein Text die Fragen des*r Lesers*in umfassend und effizient zugleich beantwortet. Es dürfte also generell hilfreich sein, seinen Inhalten einen klärenden Teaser voranzustellen: Welche Fragen beantwortet mein Content (und welche nicht)? Das hat auch sicher einen gewissen Effekt bei der SE-Optimierung (warum lese ich fast immer diese Redundanzformel SEO-Optimierung, was nichts anderes heißt als Search Engine Optimization Optimierung?).

Sichtbarkeit macht Content wertvoll

Content, den niemand findet, kann keine Wertschöpfung in Gang setzen. Also sollten die Texte zu finden sein. Aber nicht für jede x-beliebige Suchanfrage (was ohnedies nicht geht), sondern für die Frage, die der Suchende stellt. Auch deshalb sollten Metatags, Überschrift und Teaser die Frage-Antwort Dialektik entfalten, die Suchende zufrieden stellt. Wie schon oben angedeutet, werden das Longtail-Suchen sein, die in unterschiedlichen Formulierungen das Content-Thema umspielen. Das Tool answerthepublic ist hier sicher hilfreich, da es die möglichen Fragen rund um ein bestimmtes Thema gruppiert.

Wert ist auch eine Stilfrage

Ein Glas des bekannten Möbelhauses aus Schweden kostet zwischen einem und zwei Euro. Glas ist also zunächst ein günstiger Rohstoff. Das Glas einer bayerischen Glasbläsermanufaktur kostet das 40-50 fache. Nun ist sicher Glas nicht gleich Glas, was den Rohstoff angeht. Aber es ist eben auch eine Stilfrage, die den Wert ausmacht. Nur ist es schwieriger, einen Schreibstil zu beschreiben (oder gar vorzuschreiben) als ein Glas.

Selbstverständlich sollten Orthografie und Grammatik eines Textes korrekt sein. Aber das sind Formalitäten. Die klassische Rhetorik forderte einen Ausdruck: clare et distincte. Also klare und (begrifflich) präzise Schreibe. Die Autoren*innen sollten auf einen rhythmischen Textfluss sehen.

Wie kann ich den Wert meines Contents steigern?

Sebastian Lugert hat im Blog von Contentbird geschrieben, wie man Content wertvoller macht, hierauf nehme ich abschließend Bezug: https://blog.contentbird.io/de/content-marketing-konzept/

Unternehmen scheuen den berechtigt erwarteten Aufwand, den Content Marketing mit sich bringt. Sie müssen vom Nutzen erst einmal überzeugt werden. Ob allerdings (richtiges) Content-Marketing tatsächlich drei Mal mehr Leads einbringt als ein Euro im Advertising? Für drei Euro bekomme ich nicht unbedingt einen guten Text mit Bild.

Notabene: Sebastian schreibt nicht über wertvollen Content an sich, sondern, wie man ihn wertvoller macht. Darunter fallen Maßnahmen wie etwa: verschiedene Medien einsetzen, Teilbarkeit ermöglichen, für Suchmaschinen optimieren, Thought Leadership in seinem Kompetenzbereich behaupten, planvoll vorgehen.

Seine Tipps für konzeptionelles Content Marketing enthalten die Standards (Ziele, Zielgruppen, Kanäle, Vervielfältigung, Monetarisierung). Zuletzt gibt er einen sehr interessanten Hinweis, den ich zitiere:

“(G)ute Content-Marketing-Kampagnen (gewinnen) im Laufe der Zeit dramatisch an Wert, da sie sich gegenseitig verstärken. Je länger Sie also damit warten, desto mehr potenzielles Wachstum werden Sie opfern und desto härter wird der Wettbewerb, dem Sie sich letztendlich stellen müssen.”

Mächtige Contentseiten (u.a. auch Blogs) erzeugen tatsächlich eine Art Sogwirkung. Das ist hauptsächlich der internen Verlinkung geschuldet, die mit passenden Ankertexten auf thematisch weiterführende Seiten verweist. Große Content-Seiten sind wie ein breit aufgespanntes Netz, das viele Suchanfragen auffängt und beantwortet.

EAT – wie lassen sich Googles Qualitätskennzeichen verstehen und abgrenzen?

Über EAT wurde in letzter Zeit vieles (und sich Wiederholendes) geschrieben. Das ist verständlich, da der Dreiklang aus Expertise – Authoritativness – Trustworthiness die Hauptkategorien für die Qualitätsbeurteilung von Websites sind – neben dem summarischen Term: Reputation.

Was mir auffiel: die Autoren*innen tun sich schwer mit dem Begriff der Authoritativness. Das mag daran liegen, dass sie mit Autorität (https://www.sem-deutschland.de/blog/e-a-t-ranking-optimierung/) übersetzen oder durch authority (https://www.luna-park.de/blog/41457-rankingfaktor-eat/) ersetzen. Authority kommt allerdings in den Qualitätsrichtlinien von Google nur einmal vor. Möglicherweise liegt es an diesem semantischen Shift, dass die Erklärung dieser Kategorie so ungenau und im Vaguen bleibt.

Ich möchte daher eine andere Lesart vorschlagen, die sich eher an einem soziologischen Modell von Pierre Bourdieu orientiert und das EAT-Triple in dessen drei (von vier) Kapitalien überträgt: das soziale, kulturelle und symbolische Kapital.

Da der Text relativ lang geraten ist, biete ich ihn hier als PDF zu Download an: Überlegungen zu Googles Qualitätskriterien Expertise – Authoritativeness – Trustworthiness (EAT)

Die Rolle der Reputation im digitalen Wettbewerb

Angesichts von Milliarden von Websites steht für jeden Surfer die Frage im Raum, wieweit kann ich den Inhalten (Main Content) der Seite vertrauen? Die Guidelines für Quality Rater sollen dafür Anhalte und Beispiele geben, woran man sich bei Beurteilung einer Seite orientieren kann. In den Quality Rater Guidelines erläutert Google die wesentlichen Kennzeichen einer Website, die ihr selbst gestecktes Ziel (mit hoffentlich hohem Qualitätsanspruch) erreichen will. Welche Ziele das sein könnten, listet Google auf Seite 9.

Common helpful or beneficial page purposes include (but are not limited to):

  • To share information about a topic.
  • To share personal or social information.
  • To share pictures, videos, or other forms of media.
  • To express an opinion or point of view.
  • To entertain.
  • To sell products or services.
  • To allow users to post questions for other users to answer.
  • To allow users to share files or to download software

Neben EAT spielt hier der Begriff der Reputation eine entscheidende Rolle. Nehmen wir eine gängige Definition von Reputation, als  “das auf Erfahrungen gestützte Ansehen, das ein Individuum oder eine Organisation bei anderen Akteuren hat. Reputation spielt eine wesentliche Rolle bei der Einschätzung künftiger Verhaltensweisen von A als potenziellem Interaktionspartner von B, v.a. in solchen Situationen, die vertraglich nur unvollständig bzw. gar nicht erfasst werden.”  https://wirtschaftslexikon.gabler.de/definition/reputation-43008

Zwei Dinge scheinen mir hier wichtig: künftige Aktionsweise und das Feld nicht vertraglich geregelter Vorkommnisse. Ein Vertrag zwischen Unternehmen und Kunden kann nicht alle Eventualitäten abdecken – für diese Fälle wünscht man sich eine großzügige Regelung vonseiten des Unternehmens. D.h. Reputation verspricht für zukünftige Transaktionen den Komfort einer hohen Sicherheit in der Abwicklung von geschäftlichen Transaktionen unter allen Eventualitäten. Amazon wäre hier ein exzellentes Beispiel, das seine “Zuverlässigkeit”  mit hohen Einbußen erkaufte.

Entscheidend ist die Reputation bei YMYL Seiten (Your money your life), die also direkt das Leben und Lebensweise/-gestaltung des Menschen betreffen. Also v.a. Nachrichtenseiten, medizinische Seiten, Finanzseiten, aber auch Ernährungsseiten, Sport- und Fitnessseiten.

Wie oder woran kann Reputation erkannt werden?

Selbstverständlich suchen Seitenbetreiber ständig nach Faktoren, die das Ranking ihrer Seiten positiv beeinflussen. Und insbesondere, nachdem die früheren ziemlich “mechanisch” wirkenden Instrumente (Keyworddichte) nicht mehr funktionieren. Das Problem ist allerdings zweierlei: erstens ist das Internet auch nur ein Kommunikationskanal (auch wenn an einem oder beiden Enden des Kommunikationsprozesses nicht unbedingt Menschen stehen) und daher prinzipiell offen für Fake, Täuschung und Betrug. Und zum anderen ist das das Streben nach Sichtbarkeit in Suchmaschinen immer auch ein kompetitiver Prozes. Und der lädt wiederum zu Manipulationen im Sinne des ersten Merkmals ein. Reputation kann man sowohl gewinnen, wie auch verlieren. Ersteres dauert, letzteres kann in einem kurzen Moment geschehen. (man denke an Justin Saccos unbedachten Tweet Anno 2013).

Worin besteht die Reputation einer Seite: A website’s reputation is based on the experience of real users, as well as the opinion of people who are experts in the topic of the website. Keep in mind that websites often represent real companies, organizations, and other entities. Therefore, reputation research applies to both the website and the actual company, organization, or entity that the website is representing. (s.15)

„Use reputation research to find out what real users, as well as experts, think about a website. Look for reviews, references, recommendations by experts, news articles, and other credible information created/written by individuals about the website.“ (S. 16) Weitere Indizien für Reputation sind verliehene Preise (Pulitzer), Expertenmeinungen und -rezensionen, Zitate in Fachpublikationen, aber auch reelle Empfehlungen von Nutzern und Käufern. Wichtig in allen diesen Zeugnissen ist: sie müssen unabhängig vom Beurteilten sein und sollten nicht maschinell oder automatisch erstellt sein

Reputationsbasierte EAT kann in manchen Branchen quasi objektiv nachgewiesen werden – Journalismus, Medizin, Naturwissenschaft. In anderen Bereichen ist auch eine gründliche Alltagserfahrung eine brauchbare Basis für die Einschätzung der Reputation.

„Some topics require less formal expertise. Many people write extremely detailed, helpful reviews of products or restaurants. Many people share tips and life experiences on forums, blogs, etc. These ordinary people may be considered experts in topics where they have life experience. If it seems as if the person creating the content has the type and amount of life experience to make him or her an “expert” on the topic, we will value this “everyday expertise” and not penalize the person/webpage/website for not having “formal” education or training in the field.“ (S. 20)

Reputation auf mehreren Ebenen erkennen

Anscheinend operiert Google mit mehreren Analyseebenen, die bei einem Blogger aber in der Entität seiner Person zusammenfallen. Bei größeren Unternehmen geht es zunächst um das Echo zum Unternehmen. So empfiehlt Google, unabhängige Quellen zu Unternehmen zu suchen. Die parametrisierte Abfrage gibt Google gleich mit auf den Weg: -site:domain.tld ”domain.tld”  ggf. im Verbund mit “review” usw. So wird die Domain gesucht, ohne dass die firmeneigene Website mit einbezogen wird. Die zweite Ebene besteht dann aus dem Autoren der Seite, inwiefern er eine persönliche Reputation aufbauen konnte. In dem Sinne schreibe auch Google:

(For a website) “… the amount of expertise, authoritativeness, and trustworthiness (E-A-T) is very important. Please consider:

  • The expertise of the creator of the MC.
  • The authoritativeness of the creator of the MC, the MC itself, and the website.
  • The trustworthiness of the creator of the MC, the MC itself, and the website.
  • Hier legt Google Gewicht darauf, dass alle Ebenen: Autor, Inhalt, Website in die Beurteilung einbezogen werden.

Allerdings kann auch die erworbene Reputation letztlich Fake sein – wie der Fall des Spiegelredakteurs Relotius zeigt. In einem weiteren Artikel möchte ich daher das magische Triple EAT unter einem etwas veränderten Gesichtspunkt betrachten.

Zitate nach den General Guidelines von Google, publiziert im Oktober 2020.

Wie #Fake entsteht und wohin er führen kann – Felix Beilharz‘ Buch #Fake

Beilharz, Felix. #FAKE: Wie du gefährliche Lügen, Abzocke und Gefahren im Internet erkennst, durchschaust und meidest (German Edition) . Felix Beilharz. Kindle-Version.

Fake-überschwemmt-Internet

Das Buch #Fake von Felix Beilharz sollte man zur demokratischen Pflichtlektüre erklären. Fake gab es schon immer, das Vortäuschen falscher Tatsachen gehörte zur Diplomatie, zur Manipulation von Versammlungen und Parlamenten. Verschwörungsmythen begannen schon mit der Fähigkeit des Menschen zu kommunizieren. Täuschung und Lüge bekamen aber spätestens 2016 eine neue Qualität, als der schwere Verdacht aufkam, dass die Präsidentschaftswahlen mit massiven digital gesteuerten Datenströmen manipuliert wurden. Internet und soziale Medien fungieren hier als Brandbeschleuniger.

Beilharz’ Buch warnt: Fake ist alles andere als harmlos, vielmehr werden Fakes bewusst eingesetzt, um den common sense humaner Gesellschaften zu zerstören. “Es reicht, dass wir die Zuverlässigkeit und Vertrauenswürdigkeit grundsätzlicher Prozesse und Abläufe zumindest mal prinzipiell in Frage stellen. Die wenigsten gehen auf die Straße und rufen „Lügenpresse“ oder „Die Wahlen sind manipuliert“ oder stürmen gar den Reichstag, um sich „ihr Parlament zurückzuholen“. Aber das schleichende Gefühl, dass da vielleicht doch etwas dran sein könne, dass das ja nicht alles nur erfunden sein könne oder dass ein wahrer Kern ja den meisten Geschichten innewohne, DAS ist die große Gefahr hier.” (Pos. 339, Kindle)

In dieser Situation einer hochgradigen Verunsicherung gibt nun das Buch einen Leitfaden an die Hand: mit gesundem Menschenverstand und etwas technischem Wissen Fakes zu erkennen und gesellschaftlichen wie persönlichen Schaden zu verringern.

Was für Fake empfänglich macht

Empfänglichkeit für Fakes liegt begründet in Oberflächlichkeit der User. An dem Punkt sollte man präzisieren: es ist wohl eher die Atemlosigkeit, mit der wie durch die endlosen Gänge des Internet und der sozialen Medien hecheln, die uns keine Zeit mehr zur Reflexion lässt. Entschleunigung und Internet-Diät wären angesagt. “Unsere Oberflächlichkeit ist kein neues Phänomen. Bereits 2016 kam eine Studie der Columbia University zu der Erkenntnis, dass 59 % der Links, die über Twitter geteilt werden, keinen einzigen Klick erzielen – auch nicht vom Absender selbst.10 Das heißt, dass sechs von zehn Personen Links weiterleiten, ohne sie überhaupt selbst gelesen zu haben.” (Pos. 369)

Kein Bereich im Internet ist vor Fake sicher

Beilharz führt uns durch bekannte und unbekannte Fälle der betrügerischen Internet- Machenschaften. Er beschreibt genau und anhand zahlreicher Screenshots, wie Menschen täuschende Szenarien aufbauen, um von Nichtsahnende Geld oder ihre Account-Daten zu bekommen. Oder die gezielt mit Fake-News oder Falschmeldungen, gefälschten Szenebildern und tatsachenverdrehungen andere für ihre Verschwörungsideologien zu gewinnen.

Das Buch ist in mehrere große Kapitel eingeteilt, je nachdem, in welchen Sektoren des Internet Betrüger aktiv sind. Beilharz schildert die Verbreitung von Verschwörungstheorien (und anhand welcher Unstimmigkeiten man sie erkennen kann), wie man gehackte Amazonkonten erkennt, mit welchen Tricks sich Betrüger in soziale Profile hacken, wie Fake-Online-shops Gutgläubigen ihr geld stehlen. Oder wie Bots oder IKM Schreiberinnen Liebesgeflüster simulieren (bis hin zur Bitte, einen bestimmten Geldbetrag zu schicken, dass man die Reise für das erste Rendezvous bezahlen kann, das allerdings nie statt finden wird).

Was die Lektüre des Buches so spannend macht: immer wieder wechseln allgemeine Betrachtungen mit der Beschreibung ganz konkreter Fälle von Fake. So z.B. wie Bilder in anderen Kontext gestellt wurden und als “Beweis” dienen sollten; oder wie Falschmeldungen im Verbreitungsprozess zu weiteren Fakes mutierten. Und gerade diese Beispiele zeigen sehr deutlich, wie schnell Zeichen und Botschaften manipulativ missbraucht werden können.

Deep Fakes – der totale Realitätsverlust

Der Schluss des Fake-Reigens gilt den deep fakes, die jedes beliebige Individuum in jede beliebige Videoszene projizieren. Ki-basierte Video-Software verwandelt unsere Medien in eine unwahrscheinlich realitätsnahe Matrix.

Beilharz schließt mit dem Appell, dass sich Eltern, Schulen, Politiker und Portalbetreiber ihrer Verantwortung für die Medienwirkung des Internet besser bewusst werden.

Fake und Semiotik

Was mir einzig an diesem Buch fehlte, war eine kurze zeichentheoretisch oder semiotische Reflexion. Denn die Fähigkeit zum Fake liegt tief in Wesen der Kommunikation selbst begründet. Letztlich kommunizieren wir mit Hilfe von Zeichen, die für etwas, für unsere Botschaft stehen. Und dieses “für etwas” ist leider das prinzipielle Einfallstor auch für Täuschung und Betrug. Oder wie der Altmeister der Semiotik Umberto Eco meinte: Ein Zeichen ist alles, was sich als signifizierender Vertreter für etwas anderes auffassen lässt. Dieses andere muss nicht unbedingt existieren … Also ist die Semiotik im Grunde die Disziplin, die alles untersucht, was man zum Lügen verwenden kann.”(Semiotik, Entwurf einer Theorie der Zeichen, München, S.269.

Tagging von Kampagnen mit dem Matomo Campaign Report Plugin

Das Matomo Plugin Marketing Campaign Report erweitert das Erstellen und Auswerten des Trackings auf 8 Tags, also noch deutlich mehr als der Google URL Builder. Die Grundausstattung bietet bekanntlich zwei Tags, den Kampagnennamen und das Kampagnen-Keyword (pk_campaign usw.). Mit dem erweiterten Kampagnentracking kommen weitere 6 Tags hinzu. Da sind zunächst einmal die auch von Google bekannten Tags Medium und Herkunftsseite (bei Google: Quelle). Hinzu kommen Kampagneninhalt, -gruppe, -platzierung und -ID. Diese Menge an Tags und ihre Relationen untereinander machen das Matomo-Tool ziemlich unübersichtlich. Ich habe hier ein paar Tipps für die Strukturierung von Kampagnen mit Hilfe der verschiedenen Tags zusammengestellt.

Vorgehen und Planen von Kampagnen-Bezeichnungen mit dem Matomo Campaign Reporting Plugin

Die verschiedenen Tags stehen z.T. in einer hierarchischen Struktur. Die oberste Ebene stellt der Kampagnennamen dar. Zunächst aber, bevor Name, Keyword, Content usw. definierte werden sollten zunächst die beiden Tags Herkunftseite und Medium (Google: Quelle/Medium) definiert werden. Diese Tags sollten, einmal definiert, nicht mehr geändert werden.

Medium Herkunftseite
cpc google (Google Ads)
mailing newsletter
banner Name der Website
social facebook

Die Wahl des Kampagnennamens

Unter dem Kampagnennamen werden alle Klicks zusammengefasst, die dieses Tag tragen. Der Kampagnenname sollte nicht zu eng gefasst werden.

Woran kann sich der Kampagnenname als oberste Kategorie orientieren. Im Medium CPC wird der Kampagnenname auf die beworbene Seite/Zielseite hinweisen. Auch beim Medium Banner bietet sich die verlinkte Zielseite als Namensgrundlage an. Sollte allerdings auch eine CPC Kampagne den gleichen Namen tragen (also Banner und Ads dieselbe Seite bewerben), dann laufen die Daten beider Kampagnen unter diesem Namen zusammen. Differenzieren kann man sie dann z.B. nach Medium oder Herkunftseite. Woran kann sich ein Kampagnenname orientieren?

  • Produktkategorie oder Produktname
  • Brandingkampagne mit beschränktem Zeitraum: “brand-2021”
  • Definierte Marketing-Ziele unter einem Projektnamen (umsatzplus-2021)
  • Weitere Unternehmensziele: recruiting-fachinformatiker-2021
  • Zielgruppen (v.a. bei Newsletter): gruppe-mailing
  • Längere Perioden eines Newsletterversands: newsletter-q1-2021 (Newsletter erstes Quartal 2021)

Die Kampagnentags Keyword und Content

Die weiteren Ebenen Keyword und Content dienen der weiteren Differenzierung. Z.B. bei einem Newsletter können die einzelnen Links mit Hilfe eines Keywords gekennzeichnet werden, oder aber unter Keywords der einzelnen Newsletterartikel und unter Content die einzelnen Links (wenn in einem Artikel mehrere Links sind). Selbstverständlich wäre hier auch der Tag Platzierung geeignet, der die Position des Links innerhalb eines Kampagnen-Mediums beschreibt.

Kampagnenname Keyword Content/Platzierung
newsletter-1q-21 artikel-1 link-1/link-oben
artikel-1 link-2/link-mitte

Keyword und Content lassen sich auch in Social Media Kampagnen einsetzen. Mit Keyword kann der Post oder die Story gekennzeichnet werden. Falls eine Story z.B. mehrere Links erlaubt (Pinterest), dann kann hier der Content für weitere Differenzierung sorgen.

Matomo selbst empfiehlt Kampagnen-Inhalt als differenzierendes Tag bei Anzeigen-A/B-Tests einzusetzen (Bei Google-Ads Tests oder wechselnden Banneranzeigen)

In der Regel reichen drei inhaltlich beschreibende Tags aus – wozu Gruppe und ID?

Die Kampagnengruppe kann zusätzlich zur Zusammenfassung verschiedener Kampagnen genutzt werden, z.B. wenn über mehrere Kanäle ein neues Produkt beworben wird oder über mehrere Kanäle eine Zielgruppe angesprochen werden soll. Dann fungiert die Gruppe quasi als eigenes Sammelbecken für eine nochmals eigene Tag-Kategorie unabhängig vom Kampagnennamen. Die Matomo-Empfehlung lautet hier: “Kampagnengruppen sind hilfreich, um die übergreifende Performance mehrerer Kampagnen mit identischen Zielen zu tracken.”

Das Tag Kampagnen-ID muss nicht unbedingt eine Zahlenreihe enthalten, das Feld erlaubt bis zu 100 Zeichen. Bei maschinell erzeugten URLs könnte hier z.B. aus der Verwaltung eine systemerzeugte Kampagnen ID integriert werden.

Sie hätten gerne Unterstützung beim Einsatz von Matomo in Ihrem Unternehmen? Hier geht es zu meinem Angebot für modular aufgebaute Matomo-Firmenschulungen.

Bild-Optimierung – SEO und Semiotik (Teil 1 – Bild-SEO)

Bild-Optimierung – im Kontext Internet handelt es sich sicher um Bild-SEO. Anscheinend hat Optimierung schon das SE für Search Engine magnetisch angezogen. Ja hier geht es auch darum, wie Bilder “Sichtbarkeit” im Web erringen, aber nicht nur. In einem zweiten Teil geht es darum, dass und wie Bilder Botschaften vermitteln . Aber anders als Texte oder auch Diagramme, sind Bilder schwach kodiert. Die Assoziations-Gedanken werden von Bildern weniger gesteuert. Das schafft Raum für eine Vielzahl möglicher Botschaften – auch ungewollter. Dazu später mehr. Zunächst zum Thema Bilder SEO.

Bilder-SEO – Suchmaschinenoptimierung für und mit Bildern

Über Suchmaschinenoptimierung von und für Bilder ist schon vieles geschrieben worden, das ich nicht in aller Ausführlichkeit wiederholen muss. Der Aspekt der fotografischen Informationen taucht in dem Kontext allerdings fast nie auf; und das, obwohl Google dazu selbst ausführlich Stellung nimmt. Das war mir dann doch Anlass für einen Beitrag zu Bilder-SEO.

Über den Zweck des Bilder SEO sind sich Autoren:innen einig: die Sichtbarkeit der verwendeten Bilder in der Suchmaschinen-Suche zu steigern. Also Ranking und Sichtbarkeit für Bilder in den Suchmaschinen-Listen zu erzielen. Nehmen wir die Bildersuche Google als Beispiel. Wo tauchen Bilder bei Google auf? Kommt auf das Themengebiet an. Bei der Suche nach Produkten erhält man eine Reihe von Shoppinganzeigen. Die Rezeptsuche dagegen offenbart, dass die meisten Food-Blogger:innen schon mit strukturierten Daten arbeiten, die auch Bilder auszeichnen. Selbstverständlich finden sich Bilder auch in der Bildersuche.

Bildanzeige Googlesuche nach Rezepten

Welches Bild-Format eignet sich für die Bildersuche?

Unterstellen wir einmal, dass Bilder eckig sind – so wie die Bauteile der Website auch meist eckig sind (Peter Müller sprach von little boxes, die sind auch eckig). Bilder haben demnach Quadratische Form, Quer- oder Hochformat. In der Google Bildersuche werden Bilder mit Querformat favorisiert.

Ergebnisseite Bildersuche in Google

Hochformat wird auf die Zeilen-Höhe gestaucht und sieht entsprechend kümmerlich aus. Am Desktop wohlgemerkt, wohin anscheinend einige Nackensteife wieder reumütig zurückkehren – soll künftig sogar Instagram administrierbar sein. Im Smartphone dagegen sehen auch hochformatige Bilder in der Google Bildersuche ganz gut aus. Im Blog sind Querformate gefragt, um die Scrolldistanz im Rahmen zu halten. In sozialen Medien – allen voran Pinterest – stechen mehr Hochformate vor. Nicht umsonst spricht man auf Pinterest auch von Giraffen-Pins, überlange Hochformate, die im Bilderstrom auffallen sollen.

Bilder SEO mit zweifacher Zielrichtung

Kommen wir zur erwarteten Bild-SEO. Hier ist schon vieles schon so oft gesagt. Ein Zitat möge für viele Texte stehen: Möchten Sie, dass Ihre Bilder bei relevanten Suchen gut sichtbar sind, dann ist eine ordentliche Bilder-SEO unabdingbar. Die Web-Suche ist nicht die einzige Möglichkeit, um an gewünschte Informationen zu gelangen. Viele Nutzer gehen direkt zur Google-Bildersuche über, um sich nicht lange Zeit durch die SERPs und diverse Texte klicken zu müssen. Quelle: https://www.mindshape.de/kompetenzen/inbound-marketing/suchmaschinenoptimierung-seo/bilder-seo.html

Hier geht es um die Bilder, die direkt bei Google an prominenter Stelle auftauchen sollen. Aber Bilder helfen selbstverständlich auch beim Ranking der Website, auf der sie veröffentlicht werden. Denn auch Bilder werden durch HTML Code in den Kontext eingefügt. Wenn der Code stimmig, aussagekräftig und semantisch gut mit der betreffenden Seite übereinstimmt, verhilft das auch zu einem besseren Ranking der Seite. Seiteninterne SEO und SEO für Bildersuche haben zwar verschiedene Ziele in unterschiedlichen SERPs, aber im Prinzip die gleichen Methoden.

Es kommt also auf den Kontext an, d.h. den Kontext des HTML Codes, in den das Bild eingefügt ist. Sagen wir einfach, es sollte ein gewisse semantische Kongruenz herrschen zwischen der Überschrift des HTML-Containers, in dem das Bild steht, dem Kon-Text des Bildes und die Code-Auszeichnungen des Bildes. Das wären:

  • Alt-Tag
  • Bild-Titel (nicht sehr wichtig)
  • Bildunterschrift
  • Datei-Name

Vorteilhaft ist, den Bildraum in Pixeln schon vor zu konfigurieren. Das hat auch den Vorteil, dass nicht noch Elemente beim Nachladen des Bildes verschoben werden (Verbessert die Cumulated Layout Shift und damit die Nutzerfreundlichkeit beim Ladeprozess – ein von Google schon lange angedrohter Rankingfaktor im Zshg. mit Ladezeiten).

Die Kür in der Bilder-SEO: IPTC Daten

Bekanntlich versehen digitale Kameras die Bilder mit bestimmten Informationen. Z.B. Datum und Uhrzeit der Aufnahme, ggf. auch GPS-Daten, Brennweite und Belichtung und weitere technische Daten. Diese Bilddaten nach EXIF (Exchange Image File) und IIM (Information Interchange Model) nach IPTC  (International Press Telecommunications Council) können nun mit Hilfe von geeigneten Programmen angereichert werden – u.a. mit Angabe des/der Fotografen*in, dem Copyright-Hinweis und den Lizenzbedingungen.

Diskussionen darum, ob Google EXIF- oder IPTC-Informationen weiterverarbeitet gab es genug. Zumindest die IPTC Daten werden laut Google ausgewertet, wie Google selbst deklariert. Der folgende Absatz steht übrigens unter der Rubrik SEO für Fortgeschrittene.

“Metadaten zu Bildrechten hinzufügen
Google unterstützt das IPTC-Metadatenformat zur Verwaltung von Urheberrechtsinformationen für Bilder.
Du kannst Metadaten entweder direkt in ein Bild einbetten oder sie einer separaten Datei hinzufügen, die auch als Sidecar-Datei bezeichnet wird. Google empfiehlt, die Metadaten in das Bild einzubetten, da sie so nicht verloren gehen.
Versuche nach Möglichkeit, die IPTC-Felder für Ersteller/Urheber, Attributionszeile und Urheberrechtshinweis auszufüllen, damit eine korrekte Attribution möglich ist.
Wir empfehlen, entsprechende Verwaltungssoftware für deine Bildmetadaten zu verwenden.”

Quelle: https://developers.google.com/search/docs/advanced/appearance/image-rights-metadata?hl=de

Das sollte also zumindest beim Einsatz hochwertiger Bilder zu denken geben. IPTC Daten (nach Vorgaben des International Press Telecommunication Council) lassen sich mit Bildbearbeitungsprogrammen wie Adobe Photoshop oder Freeware wie cPicture3 bearbeiten. Dabei kommt es vor allem auf den Standort, die Beschreibung und den/die Urheber:in an. Für den Copyrighthinweis und die Nutzungslizenzen gibt es ein eigenes Feld, das auch ausgefüllt werden sollte. Weitere hilfreiche Infos https://andreasmann.net/foto-metadaten-exif-und-iptc-bilder-richtig-beschriften/

So sieht die Oberfläche zur Bearbeitung der IPTC Daten in Photoshop aus:

IPTC Verwaltung Photoshop

 

und so in in der Freeware cPicture3:

IPTC Verwaltung mit Freeware

Die Bearbeitung der Daten im EXIF Format sieht genauso aus, ich beschränke ich selbst allerdings auf die Nutzung der IIM-Daten nach IPTC.

Bilder-Daten nach schema.org auszeichnen

Selbstverständlich besteht auch die Möglichkeit, Bilder erweitert mit Rich Snippets auszuzeichnen. Der Vorteil dürfte neben einer genaueren Erfassung der Inhalte durch Google darin liegen, dass die Treffer um Daten bzw. Thumbnails erweitert werden. Nach schema.org sähe eine Bildauszeichnung in JSOn so aus:

<script type=“application/ld+json“>
{
„@context“: „https://schema.org“,
„@type“: „ImageObject“,
„author“: „Gerd Theobald“,
„contentLocation“: „Heidelberg“,
„contentUrl“: „heidelberg-picture.jpg“,
„datePublished“: „2021-05-10“,
„description“: „Fotografie auf Wanderung um Heidelberg“,
„name“: „Heidelberg im Bild“
}
</script>

Einen kostenlosen Rich Snippet Generator speziell für Bilder habe ich leider nicht gefunden. Das kostenpflichtige WordPress Plugin “SNIP: Structured Data Plugin for WordPress” soll angeblich alle Objekte auszeichnen können.

Matomo sampelt Daten?

Bei Google Analytics ist es bekannt, dass in großen Accounts und bei Betrachtung über einen längeren Zeitraum das so genannte Sampling eintritt. Die Grenze liegt z.B. bei 500.000 Sessions in einer Property pro betrachtetem Zeitraum. Wer einen längeren Zeitraum analysiert und ihn ggf. noch mit einem anderen Zeitraum vergleicht, läuft die Gefahr, dass nur ein Teil der Daten in den Reports ausgegeben werden. Die Samplingrate gibt Google an, über dem Report erscheint ein kleines Fenster: This Report is based on XX% of sessions.

Beschränkung der Seiten-Reports bei Matomo

Bei Matomo gibt es tatsächlich eine Beschränkung in der Analyse der Verhaltensreports. Diese Beschränkung bezieht sich auf Seitenaufrufe, Ereignisse, Interne Suchen u.a. Falls mehr als 500 verschiedene Seiten-URLs erfasst werden (bei anderen Dimensionen sind es meist 1000, z.B. im Akquisereport) fasst Matomo weniger bedeutende unter „Andere“ zusammen. Bei kleinen Auftritten ist da keine Einschränkung zu erwarten. Bei frequentierten Websites dagegen schon. Im Seitenreport werden „überschüssige“ Seiten unter „Andere“ gelistet.

Seitentreport zu Andere zusammengefasste Seiten

Der Spielraum, den Matomo uns lässt, kann relativ problemlos erweitert werden. Damit erzielt man detailliertere Reports, die allerdings zu Lasten der Performanz gehen. Um die Darstellung z.B. des Seitenreports anzupassen, genügt es, einige Zeilen Code in die Konfigurationsfdatei von Matomo: config/config.ini.php zu schreiben. Hier sind die Codezeilen beispielhaft für den Seitenreport:

; maximum number of rows for any of the Actions tables (pages, downloads, outlinks)
datatable_archiving_maximum_rows_actions = 5000
; maximum number of rows for pages in categories (sub pages, when clicking on the + for a page category)
datatable_archiving_maximum_rows_subtable_actions = 5000

Die Zeilen drei und vier beziehen sich auf den hierarchischen Seitenreport, der nach der Verzeichnisstruktur der Website aufgebaut ist.

Haben Sie Fragen zur Matomo Konfiguration oder Auswertung? Schreiben Sie an gerd.theobald@cofima.de oder rufen Sie an: +49 177 7543098

Besuch von Facebook, Pinterest etc.

Zwei Beiträge beschäftigen sich mit der Analyse von Besuchern, die (hoffentlich) über soziale Kanäle auf die Website kommen. Dort nimmt sie die Webanalyse in Empfang. Wie kann ich die Qualität der Daten steigern und was lese ich aus den Daten heraus?

Unternehmen engagieren sich in verschiedenen Social Media Kanälen. Sie treibt die Hoffnung auf mehr Sichtbarkeit, mehr Besucher der Website und last but not least mehr Umsätze oder Leads. Facebook, Twitter und Pinterest sind auch deshalb so beliebt, weil diese Portale direkte Verlinkung mit Landingpages erlauben. (Instagram nur mit verifizierten Account und mehr als 10k Followern).

Nun wollen wir doch wissen, woher die Besuche kommen und was sie so auf der Zielseite machen. dafür gibt es die Webanalysetools von Google und Matomo. Allerdings sind die Akqusitionsreports nicht unbedingt aussagekräftig. Über welchen Facebookpost kam denn der Besuch? Welcher Pin war Auslöser? Die Webanalyse verrät zwar den Referrer. Und weil sie es gelernt hat, werden die Referrer auch den Sozialen Medien zugeschlagen. So landen die Besuche im Acquisitionsbereich Soziale Medien. Allerdings alle im jeweiligen Facebook-, Twitter-, Pinterest- usw. -topf.

Anhand der Landingpage oder Zielseite kann man ggf. noch rückschließen, welcher Post hier Vermittler war. Aber richtig praktisch ist das nicht. Abhilfe schaffen hier getaggte Links, die bei Google oder Matomo den Ziellink in einen Kampagnenlink transformieren.

Ich habe erst vor kurzem einen Beitrag über das Taggen von Kampagnenlinks geschrieben. Nun wirken getaggte Links abschreckend, ja doppelt abschreckend. Einmal sind sie je nach Zahl der Tags recht lang. Zum anderen wirken sie “technisch” – das könnte den einen anderen misstrauisch machen und davon abhalten, darauf zu klicken. In dem Falle hilft es, den URL Shortener z.B. von Bitly einzusetzen und den kompletten Kampagnenlink zu kürzen.

Da Bitly den Kurzlink weiterleitet, bleiben die Kampagnentags erhalten und werden in der Webanalyse wiedergegeben. So wird aus diesem Bandwurmlink:

Matomo Tag Manager Schulung (Einführung)

dieser recht überschaubare Shortlink: https://bit.ly/3azd76k

Kampagnentracking mit Matomo

Tagging von Kampagnenlinks mit dem Matomo-URL Builder

In der Webanalyse ist es hinlänglich bekannt, dass unpräparierte Links in den Akquisitions-Reports unter Direktaufrufe gelistet werden. Lesenzeichenlinks, Links von QR-Codes, Links aus Mailings oder Newslettern – Nutzer, die auf diesem Wege auf die Seite kommen, versammelt die Webanalyse-Software (Matomo oder Google Analytics) unter direkten Zugriffen.

Das ist selbstverständlich für das Web- und Marketing-Controlling äußerst unbefriedigend. Daher haben Matomo (eigentlich schon Piwik; wir werden gleich sehen, inwiefern) und Google frühzeitig Abhilfe geschaffen. So genannte getaggte Links werden als Kampagnenlinks ausgelesen und in die entsprechenden Kampagnen-Reports gestellt. Tags sind gekennzeichnete Erweiterungen des ursprünglichen Kampagnenlinks, der auf die Ziel- oder Landingpage weist.

Der Google URL Builder kennt insgesamt 5 Tag-Parameter, die an den Link angefügt werden können. Drei Felder sind Pflicht: Kampagnenname, Quelle und Medium. Letztere beiden kennen wir schon aus den Acquisitions-Reports: beim Newsletter wären z.B. Medium “Mail” und Quelle: “Newsletter-Apr-21”. Die Quelle ist immer konkret, natürlich könnte hier auch nur “Newsletter” stehen. Dann könnten unter Term und Content z.B. konkretisierende Angaben stehen wie z.B. Term= ‘21-04-15’ (als Aussendedatumg) und Content = “Matomo-Schulung”. Die Parameter sind hierarchisch aufgebaut, die Struktur des Tagging sollte also zuvor genau festgelegt werden, damit einheitliche und aussagekräftige Reports erzeugt werden.

Matomo Kampagnentracking & -tagging

Bei Matomo unterscheide ich das einfache und das erweiterte Kampagnentracking. Seit etlichen Matomo-Versionen ist der URL Builder in das Admin-Backend integriert. Der klassische URL Builder kennt zwei Parameter, die mit den Tags pk_ übergeben werden: pk_campaign = Kampagnenname und pk_kwd für Keyword. Die Tags gehen selbstverständlich auf den alten Namen Piwik zurück.

Wer den integrierten URL Builder in Matomo verwendet, erhält die getaggten Links mit den Tags pk_. Beispiel:

Matomo Schulung

Erweitertes Kampagnentracking mit Matomo

Unter dem Namen Matomo wurde das Kampagnentracking nachhaltig erweitert. Mittlerweile kennt das Tracking bei Matomo acht Parameter. Das Parameter-Kürzel wurde konsequent umbenannt in: mtm_. Wer sich einen Überblick über die Parameter verschaffen will, kann sich auf der Matomoseite zum Kampagnentracking  informieren oder den Matomo-URL-Builder aufrufen

Interessant ist z.B., dass Matomo nun auch Kampagnen-IDs (mtm_cid) ermöglicht, oder erlaubt, Kampagnen in Kampagnengruppen (mtm_group) zusammenzufassen. Z.B. könnte eine Gruppe das Geschäftsjahr darstellen, so dass Unternehmen den Gesamterfolg aller Kampagnen eines Jahres zusammenfassen. Oder es können die einzelnen Kanäle (Newsletter, mailings, QR-Codes, Social Media) akkumuliert werden. Beispiel für getaggten Link bei erweitertem Tagging:

Matomo Schulung

Im Teilreport Herkunftseite – Medium taucht der Nutzer dann auch hier an erster Stelle auf: source: twitter und medium: social-media

Ausschnitt Kampagnenreport Quelle Medium

Benötigen Sie Unterstützung bei Ihrer Matomo Webanalyse? Schreiben Sie mir einfach an gerd.theobald@cofima.de!

Installation des Matomo-Kampagnen-Plugins

Das erweiterte Kampagnentracking kann nur mit einer Erweiterung (Plugin) durchgeführt werden. Das Plugin ist mittlerweile nicht mehr kostenpflichtig und kann einfach hochgeladen und aktiviert werden.

Installationswege für Matomo Plugins

Der erste etwas komplexere Weg geht über das Upload des Plugins “MarketingCampaignsReporting”, das man sich aus dem Pluginverzeichnis bei Matomo herunterladen kann. Der Upload kann dann unter Plattform => Marketplace gestartet werden. Allerdings muss der Admin zuvor noch in der Konfigurationsdatei config.ini.php zwei Zeilen hinzufügen, da der Plugin-Upload bei Matomo per default deaktiviert ist:

[General]
enable_plugin_upload = 1

Der Upload wird dann abschließenden mit der Eingabe des Matomo-Passworts bestätigt. Einfacher ist es, im Marketplace direkt nach dem Plugin zu suchen. Und es direkt zu installieren.

Matomo Marketplace Kampagnen Plugin

Acht Parameter für erweitertes Kampagnentracking mit Matomo

Nach der Aktivierung des Plugin stehen nun alle 8 Tags zur Verfügung, die Kampagnenlinks werden nun mit den mtm_Tags ausgezeichnet. Ein weiterer Vorteil des Kampagnen-Plugins: es liest auch die utm-Tags von Google aus. In der Folge dürften auch die Google-Ads Kampagnen in Matomo einfacher auszulesen sein.

Ein weiteres Plus besteht selbstverständlich in der Möglichkeit, auf alle Kampagnen-Tags segmentieren zu können und auch Segmentvergleiche durchzuführen z.B. zwischen Kampagnen, Kampagnengruppen usw.

Kampagnentags als Segmente bei Matomo

Zur Vertiefung des Verständnisses von Matomo und zur Implementierung einer professionellen Webanalyse mit Matomo empfehle ich den Matomo Workshop als Firmenseminar oder Online-Schulung.

Der Leistungsreport / Performance-Report bei Matomo und Googles Page Speed Insights

Seit Matomo Version 4 gibt es den Leistungsreport unter Verhalten => Leistung. Begründet wurde die Erweiterung u.a. mit Googles Update-Ankündigung für Mai 2021. Hier sollen die Ladeprozesse einer Seite einer detaillierteren Analyse unterzogen werden. Matomo möchte die Webanalysten darin unterstützen, langsame Seiten zu identifizieren und dort Abhilfe zu schaffen.

Matomo versucht automatisch, Leistungsdaten für jede Seitenansicht zu verfolgen, wenn der Matomo JavaScript-Tracker verwendet wird. Insgesamt baut Matomo die Ladezeit aus 6 einzelnen Parametern auf. Allerdings weist der Report Lücken auf, nicht immer werden alle Werte tatsächlich erfasst. Daraus ergibt sich eine Ungenauigkeit, allerdings lässt sich eine Tendenz durchaus nachvollziehen.

Google selbst analysiert im Hinblick auf das bevorstehende Update den Ladeprozess nach verschiedenen Parametern. Allerdings besteht ein erheblicher Unterschied zwischen beiden Analysen. Die Werte bei Matomo beschreiben den Status des technischen Fortschritts beim Laden einer Seite; d.h. die einzelnen Schritte von der Serveranfrage, über das Laden und Parsen bis zur vollständigen Anzeige des Windows werden gemessen.

Googles Analyse dagegen nimmt die Perspektive des Nutzers ein: wann sehe ich ein erstes Element, wann ist eine erste Interaktion möglich, wann ist das größte DOM Element geladen, wie stark verschieben sich die Layoutelemente beim Laden (der Cumulative Layout Shift ist kein Zeitwert)?

Leistungsreport aus Matomo Verhalten

Zurück zu Matomo: der Leistungsbericht enthält folgende Metriken:

  • Netzwerkzeit: Wie lange dauert es, die Verbindung zum Server herzustellen? (D.h. die DNS-Übersetzung der Anfrage und die TCP Verbindung)
  • Serverzeit: Die Antwortzeit des Servers an den Browser.
  • Übertragungszeit: Die Zeit, die der Browser benötigt zum Download der Serverantwort.
  • Zeit für DOM-Prozessierung: Die Zeit die verstreicht, bis eine Interaktion mit der Seite möglich ist (z.B. einen Navigationslink anzuklicken). Dieser Wert dürfte dem Wert Googles Time to interactive (TTI) entsprechen.
  • Zeit für DOM-Komplettierung:  Die Zeit, bis alle DOM Elemente geladen sind (insbesondere Bilder und Videos)
  • Ladezeit: Zeit, die der Browser benötigt, um Javascript-Code auszuführen, der auf das Ereignis window.load wartet, nachdem das DOM vollständig gerendert wurde.
  • Seitenladezeit: die Summe aller vorstehenden Metriken.

Bei manchen Ladeprozessen werden verschiedene Zeiten auch einmal nicht erfasst, daher sind die Durchschnittswerte bestenfalls Näherungswerte. Hier ein Ausschnitt aus dem kumulierten Report zu drei Seiten, Metriken in Millisekunden.

Der seitenspezifische Excelexport des Leistungsreports enthält sehr viele Daten. Für jede Seite werden auch die Besuchszeiten, Einstiege, Ausstiege, Absprünge, kleinste und maximale Zeitwerte der einzelnen Parameter angegeben. Der Report zeigt ansonsten die Zeiten in Millisekunden für die einzelnen Stationen (Es handelt sich um Blogartikel, deren URI ich der Übersichtlichkeit halber gelöscht habe).

Informieren Sie sich gerne über mein Angebot über Schulung und Beratung zur Webanalyse mit Matomo.

Die Parameter bei Googles Page Speed Insights

First Content Paint gibt die Periode bis zu dem Zeitpunkt an, zu dem das erste DOM Element beginnt zu laden. Iframes werden dabei nicht berücksichtigt. Zeiten bis 2 Sekunden liegen im grünen Bereich.

Speed Index gibt an, wie schnell eine Seite lädt; dabei ist aber nicht die Ladezeit absolut gemeint. Es kommt vielmehr darauf an, ob vom Start weg Inhalte schnell geladen werden. Wenn die ersten 50% der Seite schnell laden, ist der kumulierte Speed Index niedriger, als bei einer Seite, in der die ersten 50% langsamer laden aber dann die Ladezeit insgesamt bei beiden identisch ist. Google gibt an, dass es für die Messung des Speed Index den Ladefortschritt des Frames mit Hilfe eines Videos misst. Bis 4,3 Sekunden ist eine Website im grünen Bereich.

Largest Contentful Paint gibt die Zeit an, bis das umfangreichste Content Element im sichtbaren Browserbereich geladen ist. Die LCP Metrik gibt die Zeit, die es braucht, bis das größte Bild oder der größte Textblock gerendert ist. Im Viewport nicht sichtbare Elemente fließen nicht in die Wertermittlung ein. Nach Google sollte der LCP Score unter 2,5 Sekunden liegen.

Time to interactive gibt die Zeit an, die verstreicht, bis ein Nutzer mit ihr interagieren kann. Der Wert sollte unter 3,8 Sekunden liegen.

Total blocking Task ist der Zeitabschnitt zwischen dem First Contentful Paint und der Time to Interactive. Überschreitet dieser Abschnitt die Dauer von 50 Millisekunden, dann ist die überschüssige Wartezeit die Total Blocking Time.

Beispiel für Cumulative Layout Shift

Cumulative Layout Shift wird als Wert zwischen zwei Ladezuständen gemessen. Er ist ein Produkt aus zwei Werten: impact fraction*distance fraction. Impact fraction fragt, welchen prozentualen Anteil ein verschobenes Element im Layout hat und addiert den Anteil hinzu, um den es verschoben wird. Wenn die zwei Drittel des Fensters durch Nachladen eines Headers um ein Drittel nach unten verschoben wird (d.h. der Header nimmt die Hälfte des verschobenen Elements ein), dann ist der impact fraction 99 % oder 0,99. Die distance fraction gibt dann den Wertanteil, um wieviel das Element prozentual verschoben wurde, also 33 % oder 0,33. Der CLS errechnet sich dann aus dem Produkt beider Werte: 0,33

Das Diagramm soll noch einmal veranschaulichen, dass Matomos Leistungsreport am technischen Ladeprozess einer Website orientiert ist, während Googles Page Speed Insights aus der Sichtweise des Nutzers orientiert ist.

Diagramm Matomo Leistungsreport und Googles Page Speed Parameter