#IPv6 Hall of Shame
▻https://club6.nl/hall-of-shame.html
Only 267 out of the Alexa Top 2 500 websites support IPv6. If we exclude the top 3 largest Autonomous Systems, only 106 domains have IPv6 connectivity.
Via @stephane
Infovore, father, photography, roller-skating, cycling, Africa, Free software, open networks, adventure, wargaming, cooking and more geekery
#IPv6 Hall of Shame
▻https://club6.nl/hall-of-shame.html
Only 267 out of the Alexa Top 2 500 websites support IPv6. If we exclude the top 3 largest Autonomous Systems, only 106 domains have IPv6 connectivity.
Via @stephane
And SeenThis is in the hall of shame :-(
Comme on peut troller @seenthis à chaque fois qu’on parle d’hébergement défaillant (https disparu, IPv6 manquant, etc), je vais réexpliquer la situation : suite au crash majeur de la dedibox de départ, seenthis est actuellement hébergé avec trois ficelles et un bout de bois sur la machine de @rezo, qui n’est pas prévue pour ça.
On ne sortira pas de cette situation foireuse sans une décision (collective ?) de doter la communauté seenthis d’un hébergement propre, et des ressources (temps et compétences) pour s’en occuper.
Ce n’est pas un appel à l’“aide” car je n’ai même pas le temps de gérer une initiative qui ne serait pas à 90% autonome.
cc @archiloque
Avec les technos de tunneling, est ce que c’est grave de ne pas supporter ipv6 à l’heure actuelle (oui c’est pas optimal, mais est ce que c’est grave ?) ?
Bon alors il faut un vhost quelque part ? Ca consomme beaucoup un #Seenthis ?
J’ai bien lu que ce n’était pas un appel à l’aide. Mais. J’héberge déjà gratuitement des choses. Je peux mettre une VM Debian pré-configurée à disposition, avec IP dédiée. A moins que ça ne nécessite impérativement une machine physique avec 1To de disque ?
Là on atteint 330 000 messages en stock, et une centaine de personnes connectées à peu près en permanence :))
Si on installe l’indexation sphinx, et le système de cache qui va bien (memcached), le calcul d’une page ne consomme pas grand chose en général en temps machine (d’ailleurs, dans le cas contraire ce serait trop lent). Donc de ce côté, ça va. La charge du serveur de @rezo n’a pas sensiblement varié, on reste autour de 1 à 2 en général.
L’indexation permanente de tout par les bots, c’est plus chaud, car il commence à y avoir un nombre de pages assez conséquent — mais là j’ai une parade assez drastique qui consiste à jeter les robots dès lors que la charge du serveur est un tout petit peu élevée.
Par contre rien ne garantit que ça ne se mette pas à grossir subitement un jour prochain… autant prévoir aussi ce qui se passe si ça se présente. Le code n’est pas super propre mais il offre déjà des possibilités pour basculer des traitements en tâche de fond sur des machines différentes, de répartir différentes choses.