Sperren über einen Eintrag in die .htaccess (Zugriff auf robots.txt am besten immer zulassen), z.B.
RewriteCond %{HTTP_USER_AGENT} ^MJ12bot [NC]
RewriteCond %{REQUEST_FILENAME} !^.*robots\.txt$
RewriteRule ^.* - [F]
In der robots.txt, z.B.
User-agent: MJ12bot
User-agent: MJ12bot/v1.4.3
Disallow: /
Zu Frage 1:
Alle URLs, die aufrubar sind, können indexiert werden. Du kannst alte URLs, die auf die Startseite führen beispielsweise per .htaccess auf 404 setzen. Dann fliegen die irgendwann aus dem Index.
Ev. bietet Bing zusätzliche Möglichkeiten.
Grundsätzlich könnte man das auch abhängig von den verwendeten Query_Strings machen. Die Webmastertools in Google hatten das sogar mal ermöglicht. Musste man nicht umständlich in der .htaccess rumbasteln. Weiß nicht, ob die Search Console von Google oder auch Bing das noch anbieten. Da sollte man aber höllisch aufpassen und genau wissen, was man macht. Sonst hat man im schlimmsten die gesamte Webseite aus dem Index gekickt. Fängt bereits damit an, dass man das administrator-Verzeichnis auslassen muss.
Nebenbei: Wenn du nur mit 1 Bot Probleme hast, lohnt der Aufwand nicht wirklich. Das müssten schon massive Probleme sein.