Freie-Diskussion - Schwierige Themen aus allen Blickwinkeln

  • Ich weiß nicht was du da geschrieben hast, aber Links zu irgendwelchen Seiten einfügen wollen die nichts zu dem im Lexikon Eintrag behandelten Thema beitragen ist nun Mal unerwünscht und damit Spam.

    Strafe.

    Und Suchmaschinen wie Google gehen längst mit NLPs und mehr an solche Dinge Ran um die Qualität zu beeinflussen, Backlinks sind an dem Tag Geschichte geworden als man anfing sich in Linklisten einzutragen um sie zu steigern. Ein übliches vorgehen, wenn betrieber anfangen das System auszunutzen, wird es geändert um allen die gleiche Chance zu bieten. Es gibt haufenweise Infos über echtes SEO da draußen.

    Und mit deiner "Fake clicks" Aktion, hast du es noch mehr abgewertet, denn nur weil deine IP anders ist, bist und bleibst du die selbe Person, oder hast du deine Sessions, Cookies, Grafikkarte, Betriebssystem, CPU und Arbeitsspeicher auch ständig gewechselt?

    :(

    Ich hät nicht gedacht , dass es so schwer ist google ein bischen auzutricksen. und das mit Sessions, Cookies, Grafikkarte, Betriebssystem, CPU und Arbeitsspeicher hab ich tatsächlich nicht bedacht. man bräuchte ein script, dass die ganze zeit anfragen mit manipulierten headers schickt.

  • :(

    Ich hät nicht gedacht , dass es so schwer ist google ein bischen auzutricksen. und das mit Sessions, Cookies, Grafikkarte, Betriebssystem, CPU und Arbeitsspeicher hab ich tatsächlich nicht bedacht. man bräuchte ein script, dass die ganze zeit anfragen mit manipulierten headers schickt.

    Oder man lässt es, und trägt brav eine sitemap bei Google ein.

    Ohne ist Google sogar so effektiv, das sie eine Mastodon Instanz gleich mit crawlen.

    A red dragon falls from the heavens... Ah, that memory has been lost. A shame. It was a favorite of mine...

  • Oder man lässt es, und trägt brav eine sitemap bei Google ein.

    hab ich schon gemacht. Es ist nur schwirig, da für neue Diskussionen ständig neue URLs entstehen. Dynmaische Website halt.

    Zitat

    Ohne ist Google sogar so effektiv, das sie eine Mastodon Instanz gleich mit crawlen.

    Ist doch gut, dann kanst du ganz viele Nachrichten mit Backlinks schicken.

  • Ist doch gut, dann kanst du ganz viele Nachrichten mit Backlinks schicken.

    Und dann von Google, MS und Co. gesperrt werden wegen den Backlinks?

    hab ich schon gemacht. Es ist nur schwirig, da für neue Diskussionen ständig neue URLs entstehen. Dynmaische Website halt.

    Und? Ich generiere die Sitemap dauerhaft xD

    A red dragon falls from the heavens... Ah, that memory has been lost. A shame. It was a favorite of mine...

  • Zitat

    Und dann von Google, MS und Co. gesperrt werden wegen den Backlinks?

    Kann nicht sein. Nehmen wir mal an du wärst meine Konkurenz. Dann poste ich einfach überall deinen Link und schon sperrt google deine website und ich bin einen konkurenten los. Dann kann so nicht sein.

    Und? Ich generiere die Sitemap dauerhaft xD

    Automatiesiert? wie geht das?

  • Kann nicht sein. Nehmen wir mal an du wärst meine Konkurenz. Dann poste ich einfach überall deinen Link und schon sperrt google deine website und ich bin einen konkurenten los. Dann kann so nicht sein.

    So einfach ist das nicht 😉

    Automatiesiert? wie geht das?

    PHP
    public function toSitemapTag(): Url | string | array
        {
            return route('blog.post.show', $this);
            return Url::create(route('blog.post.show', $this))
                ->setLastModificationDate(Carbon::create($this->updated_at))
                ->setChangeFrequency(Url::CHANGE_FREQUENCY_YEARLY)
                ->setPriority(0.1);
        }

    A red dragon falls from the heavens... Ah, that memory has been lost. A shame. It was a favorite of mine...

  • So einfach ist das nicht 😉

    Kann nicht mal einmal etwas einfach sein?

    Zitat
    Code
    public function toSitemapTag(): Url | string | array    {        return route('blog.post.show', $this);        return Url::create(route('blog.post.show', $this))            ->setLastModificationDate(Carbon::create($this->updated_at))            ->setChangeFrequency(Url::CHANGE_FREQUENCY_YEARLY)            ->setPriority(0.1);    }

    ahhhh clean. Sowas brauch ich auch.

  • Diese KI muss sehr komplex sein

    Wenn du bessere Platzierung möchtest, verbessere deine mobile freundlichkeit, denn das ist heute der am schwersten wiegende Punkt. Liefere eine sitemap aus die die Crawler von Google, Bing etc sich nehmen können und aktualisiere diese ständig/regelmäßig.

    ahhhh clean. Sowas brauch ich auch

    Als Info dazu, das ganze basiert auf einem trait der dem Model zugewiesen ist, und erzeugt im Hintergrund dadurch einen Eintrag in der sitemap die dann aktualisiert wird.

    A red dragon falls from the heavens... Ah, that memory has been lost. A shame. It was a favorite of mine...

  • Wenn du bessere Platzierung möchtest, verbessere deine mobile freundlichkeit, denn das ist heute der am schwersten wiegende Punkt. Liefere eine sitemap aus die die Crawler von Google, Bing etc sich nehmen können und aktualisiere diese ständig/regelmäßig.

    Als Info dazu, das ganze basiert auf einem trait der dem Model zugewiesen ist, und erzeugt im Hintergrund dadurch einen Eintrag in der sitemap die dann aktualisiert wird.

    Ah danke

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!