@archeenerd @BertrandCaron La deuxième chose serait de respecter le fichier robots.txt et en particulier la règle crawl-delay (qui autorise par exemple pas plus d'une requête toutes les 30 secondes). Mais ceci n'est pas vraiment standardisé, et implémenté seulement par quelques robots.
Là aussi à chacun de décider quelles sont les limites, mais ça ne peut fonctionner que si les robots s'identifient, pas s'ils se font passer pour des utilisateurs "normaux" humains
In reply to
PulkoMandy
@pulkomandy@mastodon.tetaneutral.net
Sparkly tinkering with computers. Developper for the Haiku operating system, designer of retro computing hardware, reverse engineering of VTech stuff, and many other cool things!
mastodon.tetaneutral.net
PulkoMandy
@pulkomandy@mastodon.tetaneutral.net
Sparkly tinkering with computers. Developper for the Haiku operating system, designer of retro computing hardware, reverse engineering of VTech stuff, and many other cool things!
mastodon.tetaneutral.net
@pulkomandy@mastodon.tetaneutral.net
·
Mar 16, 2026
0
2
0
Conversation (2)
Showing 0 of 2 cached locally.
Syncing comments from the remote thread. 2 more replies are still loading.
Loading comments...