Hier gibt es von Seiten ChurchTools ja leider noch keine Verbesserung.
Aus meiner Sicht ist es fragwürdig, öffentliche Seiten erstellen zu können (die dann unter /publicgroup/ oder /grouphomepage/ liegen), die aber für Google usw. versteckt werden, indem man in der robots.txt alle Crawler schon ab dem Root-Verzeichnis abweist:
User-agent: *
Disallow: /
Frage an die Experten: Kann man hier die robots.txt nicht ergänzen mit...
Allow: /publicgroup/
Allow: /grouphomepage/