- Joomla Version
- 5
- PHP Version
- PHP 8.3.x
- Hoster
- IONOS
Hi, ich überlege gerade wie ich meine robots.txt aufbauen soll. Es gibt ja zwei Möglichkeiten:
1) Alles ausschließen und gezielt Crawler zulassen
2) Gezielt bestimmte Crawler ausschließen
Wie macht ihr das? Gibt es bestimmte, größere Nachteile, wenn man sich für 1) entscheidet? Und gibt es Listen, die einem dabei helfen. Ich denke z.B. an die ganzen AI-Crawler. Allerdings gibt es ja auch viele wichtige Crawler von Google und Co.
Würde folgendes Sinn ergeben? Wichtige Crawler vergessen?
Spoiler anzeigen
# Block everything for all Crawlers
User-agent: *
Disallow: /
# Allow everything for Google Search
User-agent: Googlebot
Allow: /
User-agent: Googlebot-Mobile
Allow: /
User-agent: Googlebot-Image
Allow: /
# Allow everything for Bing Search
User-agent: Bingbot
Allow: /
# Allow everything for Ecosia Search
User-agent: EcosiaBot
Allow: /
# Allow everything for DuckDuckGo Search
User-agent: DuckDuckBot
Allow: /
# Allow everything for Yahoo Search
User-agent: Slurp
Allow: /
# Allow everything for Startpage Search
User-agent: StartpageBot
Allow: /
# Allow everything for Qwant Search
User-agent: Qwantify
Allow: /
# Allow everything for MetaGer Search
User-agent: MetaGerBot
Allow: /
# Allow everything for Google Ads Bots
User-agent: AdsBot-Google
Allow: /
# Allow everything for Bing Ads Bot
User-agent: AdIdxBot
Allow: /
# Allow everything for Social Media Bots to generate Previews
User-agent: facebot
Allow: /
User-agent: Twitterbot
Allow: /
User-agent: LinkedInBot
Allow: /