@BertrandCaron Effectivement, j'ai constaté ça aussi, les outils mis en place (Anubis chez nous) soulagent bien les serveurs face à la pression des robots mais les crawlers web "légitimes" sont des victimes collatérales de ces mesures. Du coup, des sites institutionnels ne peuvent de facto plus être archivés.
Les guillemets autour de légitime sont volontaires, car qu'est-ce qui distingue (hors système de patte blanche) un robot légitime d'un robot illégitime? L'agressivité de la capture?
In reply to
archeenerd
@archeenerd@digipres.club
Digital Archivist (or so I am told) Genève, Suisse
digipres.club
archeenerd
@archeenerd@digipres.club
Digital Archivist (or so I am told) Genève, Suisse
digipres.club
@archeenerd@digipres.club
·
Mar 16, 2026
2
4
3
Conversation (4)
Showing 0 of 4 cached locally.
Syncing comments from the remote thread. 4 more replies are still loading.
Loading comments...