Voici quelques résultats intéressants. C'est toujours agréable de voir que MegaETH arrive en tête : ) Pour mettre les données en contexte, la latence de bout en bout d'une requête RPC se compose de trois éléments : (1) la latence de propagation à la vitesse de la lumière de/l'observateur vers/le serveur, (2) le temps nécessaire au serveur pour récupérer et post-traiter les données demandées, (3) le temps qu'il faut à l'observateur pour télécharger la réponse. Comme vous l'avez mentionné, les méthodes RPC testées sont plutôt légères, tant en termes de coût computationnel que de taille des données. Cela signifie que les expériences ont principalement testé (1), c'est-à-dire la latence de propagation entre les observateurs et les serveurs RPC. Ne vous méprenez pas – les RPC de MegaETH sont également assez performants sur (2) et (3) et il serait intéressant de voir des expériences qui les mettent à l'épreuve ! Alors, comment pouvons-nous affiner la latence de propagation ? En fait, il n'y a pas beaucoup de réglages possibles. Tout d'abord, nous pouvons déployer des serveurs RPC dans plusieurs régions géographiques et acheminer automatiquement les requêtes vers le serveur le plus proche. C'est comme des chaînes de restauration rapide qui ouvrent des magasins partout – il y a toujours une succursale à proximité ! Plus précisément, avoir des serveurs géo-distribués réduit la distance physique entre les utilisateurs et les serveurs. Deuxièmement, nous pouvons optimiser la topologie du réseau. Même s'il s'agit du même couple d'expéditeur et de récepteur, la latence de propagation varie en fonction du chemin réseau réel emprunté. Par exemple, entre la côte est des États-Unis et l'Asie, la latence peut varier de 2x selon que les paquets de données passent par le Pacifique ou par l'Europe. Parfois, il existe même plusieurs chemins réseau suivant le même itinéraire géographique ; certains sont plus congestionnés que d'autres, ce qui induit une latence plus élevée. C'est comme avoir plusieurs autoroutes au choix pour aller du point A au point B. Les avantages de latence que vous avez observés proviennent très probablement de notre optimisation de l'itinéraire.