"Beitragsservice" (vormals GEZ) > Aktionen – Alternativen – Erlebnisse

Schon erstaunlich. Wird das Forum bei google jetzt gefiltert?

Seiten: << < (2/9) > >>

pinguin:


--- Zitat von: pjotre am 04. Februar 2018, 21:40 --- wie bekommen wir diese Bereitschaft vielleicht in etwas Beitrag für die viele Arbeit verwandelt?
--- Ende Zitat ---
Dürfte schwierig sein, weil gerade in Deutschland punktuell dann der Eindruck entstehen könnte, daß da auch hier im Forum User nur wegen Kohle oder Aussicht auf Kohle tätig werden.

Erstmal sollten brauchbare Ergebnisse her, also Referenzen wie bspw. eine mit den nationalen und europäischen Grundwerten passende Entscheidung des BVerfG, die maßgeblich durch Nutzer dieses Forums bewirkt worden ist, wie sie auch der Bürger für sich verwenden kann.

drboe:

So, jetzt gibt es wenigstens ein paar Hinweise.

Positiv: Das Meta-Tag für den Titel eines Threads ist gesetzt. Beispiel: dieser Thread:

<meta name="description" content="Schon erstaunlich. Wird das Forum bei google jetzt gefiltert?" />
<title>Schon erstaunlich. Wird das Forum bei google jetzt gefiltert?</title>

Neutral/negativ: die Keywords sind offenbar für alle Beiträge gleich. Und zwar GEZ, Rundfunk, Beitrag, Rundfunkbeitrag, ARD, ZDF, Staatsvertrag, Rundfunkstaatsvertrag, Rundfunkänderungsstaatsvertrag, swr, mdr, ndr, br, hr, sr, wdr, phönix, sat1, sat.1, pro7, rtl, rtl2, vox, babel1 Wenn die Software des Forums diesbezüglich nicht anpassbar so ist, dass die Beiträge eines Threads auch individuell zu den Metatags beitragen, ist das besser als nichts. Es gibt aber auch einen negativen Effekt: wenn keines der Worte im Text der Seite vorkommt, wird sie im Ranking abgewertet.

<meta name="keywords" content="GEZ,Rundfunk,Beitrag,Rundfunkbeitrag,ARD,ZDF,Staatsvertrag,Rundfunkstaatsvertrag,Rundfunkänderungsstaatsvertrag,swr,mdr,ndr,br,hr,sr,wdr,phönix,sat1,sat.1,pro7,rtl,rtl2,vox,babel1" />

Kontraproduktiv: man findet das Tag <meta name="robots" content="noindex" />. Das hat zur Folge, dass jede Seite des Forums jeder Suchmaschinen signalisiert "Finger weg, diese Seite nicht indexieren!" Tja, und das tut ein ordentlicher Spider dann auch. Bye, bye gez-boykott-Forum.

Maßnahme: den Standard der Seite für neue Beiträge auf <meta name="robots" content="index,follow"> ändern. Das hat zur Folge, dass nicht nur das Dokument indexiert werden kann, sondern der Spider auch die Links auf Querverweise untersucht und diesen ggf. folgt. Ob und wie man vorhandene Einträge ändern kann, bzw. ob sich das auf alle Seiten auswirkt, hängt davon ab, wann das Tag in die HTML-Seite eingefügt wird.

M. Boettcher


pjotre:

@drboe hat die ersten Ursachen bereits 100 % richtig diagnostiziert.
Es müsste also auf jeden Fall umkonfiguriert werden:
... index... robot... follow...

Sodann: Im Prinzip schaut Google kaum noch auf die Metatag-Keywords.
Die kann man an sich weglassen. Wenn man sie aber macht und sie kommen im insgesamt abgebildeten Thread beziehungsweise Thread-Teil überhaupt nicht vor, gibt das Negativ-Punkte beim Ranking. Denn Google interpretiert das als Versuch, "über verkehrt gewählte Keywords das Suchmaschinen-Ranking zu manipulieren".
Also Keywords besser ganz weglassen. Es sei denn, die Software erlaubt, Keywords aus dem Text heraus zu filtern und in den Header zu packen. Das dürfte derartige Software nicht leisten.

(Das geht natürlich und wird von vielen Content-Systemen gemeistert und geschieht bei der proprietären eigenen Content-Software beispielsweise vollautomatisch wie folgt: Die Einzelseite wird von einer Software automatisch aus Textmodulen generiert; anschließend filtert die Software aus dem so teils mit Zufallsalgorithmen geschaffenen Text die wichtigsten real vorkommenden Keywords und schiebt diese sodann nachträglich in den Seitenheader hinein an die richtige Stelle.)

Ganz anderes Problem: Google benachteiligt Massenteilnehmer-Websites.
Das sind ja potentielle Werbe-Einnahmen-Konkurrenten des GOOGLE-Adwords-Systems. Das ist ein weites Thema und führte zu verschiedenen EU-Verfahren - sei nur einmal angemerkt.

Ferner: Google benachteiligt Seiten, an denen sich nicht mehr viel ändert - bei einem Forum über 99 % der Seiten. Google benachteiligt Websites, bei denen der Änderungsanteil klein ist.

Damit hätten wir das Problem wohl recht gut eingekreist? Deshalb meine Meinung, dass eine "dritte Website-Schiene" der Aktion gegen den Rundfunkbeitrag zu erwägen ist.
Vorschlagen ist immer einfach, das Durchführen ist es selten. Also eine Nachdenkaufgabe, mehr einstweilen nicht.
 
 

ChrisLPZ:


--- Zitat von: pjotre am 05. Februar 2018, 11:44 --- @drboe hat die ersten Ursachen bereits 100 % richtig diagnostiziert.
Es müsste also auf jeden Fall umkonfiguriert werden:
... index... robot... follow...

--- Ende Zitat ---

Das Thema ist, wie Bürger schon richtig angemerkt hatte, bereits Gegenstand einer Diskussion unter Admins/Moderatoren.

Zahlreiche Hinweise zum "SEO-Tuning" geben die unterschiedlichen im Web verfügbaren SEO-Testseiten, die zwar einige Probleme aufzeigen (beispielsweise https://freetools.seobility.net), diese sind jedoch nicht derart gravierend, wie es eine Nichtindexierung wäre.

Mit einer Umkonfiguration wäre ich folglich vorsichtig.
Es ist nicht ganz klar, weshalb auf den Seiten der einzelnen Threads der noindex-Tag für die Spider steht.
Die Forum-Threads werden ja trotzdem von google und co. indexiert.
Jeder Thread ist bei den Suchmaschinen mit den entsprechenden Keywords auffindbar.
Lediglich die Position in der Trefferliste ist das vorwiegende Problem und war früher IMHO besser.

Es könnte also durchaus kontraproduktiv sein, den noindex-Tag einfach im Template zu ändern, da dies von den Suchmaschienen als "Spam" ausgelegt werden und das Ranking weiterhin verschlechtern könnte.
Bis das nicht geklärt ist, wird es vermutlich besser sein, keine derartigen Änderungen am Template vorzunehmen.

Eine Möglichkeit, die ebenfalls bereits zur Diskussion steht, wäre ein Seo-Plugin für das Forum (beispielsweise https://www.smfpacks.com/seomod/) , welches ein professionelleres "Finetuning" übernehmen/ermöglichen könnte.
Derartige plugins sind jedoch kostenpflichtig.

Wir brauchen also alle noch etwas Geduld, bis René die Zeit findet, das Ranking-Problem anzupacken.




pjotre:

Das "noindex" ist ein absolutes No_Go.
Möglicherweise war das im alten Forum nicht und Google listet dann möglicherweise nur die Seiten, die schon vor dem Update der Software in Google drin waren?

Es ist für Google rechtlich untersagt, Seiten zu indexieren, die ein "noindex" enthalten. Daran hält sich an sich jede Suchmaschine - ausgenommen solche aus Nordkorea natürlich.

Ob und wie schnell Google einen Forumsbeitrag listet, kann man ganz schnell testen:
Im ersten Textbeitrag einen Code, der in normaler Sprache nicht vorkommt, beispielsweise  234_ABAZ
Google betrachtet   _   (underscore) als Wortteil. Nichts da mit "künstlicher Intelligenz" etc. etc.....
Man suche dann einfach nach dieser Zeichenkette bei Google.
Wird das Forum laufend neu indexiert, müsste das in 48 Std. drin sein.

Um sicher zu gehen, kann man zusätzlich eine Pressemitteilung in fairnews machen und dort den Link zum neuen Thread einfügen.
Auch dort den Code einfügen.
Der neue Thread sollte dann möglicherweise schon nach 15 Minuten im Google-Index zu finden sein mit Suche nach: 234_ABAZ

Benutzung von SEO-Tools führt oft zum Herunterschrauben des Rankings bei Google.
Man muss sich also sehr genau anschauen, was das SEO-Ranking machen würde. Das kann viel helfen oder das Gegenteil auslösen.

Den Link https://www.smfpacks.com/seomod/
habe ich oberflächtlich gesichtet. Das wirkt durchaus geeignet. Das möglicherweise Bedenkliche muss man ja nicht aktivieren.

Google nimmt die ersten Wörter einer Seite zum Thema.
- also wieder - nichts da mit gewaltiger Super-Intelligenz -
- man kann das testen und also ermitteln -
Konstante Forums-Header-Texte bleiben ausgeklammert - das bekommen die Bots noch hin.
Das Thema des Threads kommt als erstes dürfte geeignet sein, wenn echte prägende Begriffe sind und nicht überwiegend "fog words" - "Nebelwörter" wie und, haben, machen". Genauso ignoriert Google zu spezielle Begriffe, die also nicht "kategorie-geeignet" sind. 
Und dann kommt der Benutzername und darunter die ständige Eigen-Botschaft. Google könnte das wählen, wenn vorher nichts Besseres war. Das führt zur falschen Einordnung in den Suchergebnissen.

Was kommt als erstes? Der gute alte Browser Lynx von anno Opa ist in etwa die Leitschnur im Hause Google: In so etwas ähnliches wird eine Seite übersetzt, bevor die Software sie bei Google analysiert.

Ausschlaggebend bleibt: Google macht seit über 5 Jahren down-grading für alles, was Benutzerbeiträge in Masse enthält.
Damals ist ein 200-Millionen-Unternehmen in den USA weggestorben - und zig-tausende kleinere konnten keine Werbeinnahmen mehr generieren. In Deutschland war wohl studivz unter den Opfern / Leichen. Aber wie immer, wenn Internet-Aktivitäten sterben, das ist fast immer multi-kausal und selten mono-kausal.


Seiten: << < (2/9) > >>

Zur normalen Ansicht wechseln