Aller au contenu principal

4. Definitions (Définitions)

Un certain nombre de termes techniques sont définis dans cette section. Une échelle de temps (timescale) est un cadre de référence où le temps est exprimé comme la valeur d'un compteur binaire augmentant de manière monotone avec un nombre indéfini de bits. Il compte en secondes et en fractions de seconde, lorsqu'une virgule décimale est employée. L'échelle de temps du Temps Universel Coordonné (Coordinated Universal Time, UTC) est définie par l'ITU-R TF.460 [ITU-R_TF.460]. Sous les auspices de la Convention du Mètre de 1865, en 1975, la CGPM [CGPM] a fortement approuvé l'utilisation de l'UTC comme base pour le temps civil.

L'échelle de temps du Temps Universel Coordonné (UTC) représente le temps solaire moyen (mean solar time) tel que diffusé par les laboratoires nationaux de normalisation (national standards laboratories). Le temps système (system time) est représenté par l'horloge système (system clock) maintenue par le matériel et le système d'exploitation. L'objectif des algorithmes NTP est de minimiser à la fois la différence de temps (time difference) et la différence de fréquence (frequency difference) entre l'UTC et l'horloge système. Lorsque ces différences ont été réduites en dessous des tolérances nominales (nominal tolerances), l'horloge système est dite synchronisée (synchronized) avec l'UTC.

La date d'un événement est le temps UTC auquel l'événement a lieu. Les dates sont des valeurs éphémères (ephemeral values) désignées par un T majuscule. Le temps d'exécution (running time) est une autre échelle de temps qui coïncide avec la fonction de synchronisation du programme NTP.

Un horodatage (timestamp) T(t) représente soit la date UTC soit le décalage temporel (time offset) par rapport à l'UTC au temps d'exécution t. La signification prévue devrait être claire d'après le contexte. Soit T(t) le décalage temporel, R(t) le décalage de fréquence (frequency offset), et D(t) le taux de vieillissement (aging rate, dérivée première de R(t) par rapport à t). Alors, si T(t_0) est le décalage temporel UTC déterminé à t = t_0, le décalage temporel UTC au temps t est

T(t) = T(t_0) + R(t_0)(t-t_0) + 1/2 * D(t_0)(t-t_0)^2 + e

où e est un terme d'erreur stochastique (stochastic error term) discuté plus tard dans ce document. Bien que le terme D(t) soit important lors de la caractérisation d'oscillateurs de précision (precision oscillators), il est ordinairement négligé pour les oscillateurs informatiques. Dans ce document, toutes les valeurs temporelles sont en secondes (s) et toutes les valeurs de fréquence sont en secondes par seconde (seconds-per-second, s/s). Il est parfois pratique d'exprimer les décalages de fréquence en parties par million (parts-per-million, ppm), où 1 ppm est égal à 10^(-6) s/s.

Il est important dans les applications de chronométrage informatique d'évaluer la performance de la fonction de chronométrage. Le modèle de performance NTP (performance model) comprend quatre statistiques qui sont mises à jour chaque fois qu'un client effectue une mesure avec un serveur. Le décalage (offset, theta) représente le décalage temporel de vraisemblance maximale (maximum-likelihood time offset) de l'horloge serveur par rapport à l'horloge système. Le délai (delay, delta) représente le délai aller-retour (round-trip delay) entre le client et le serveur. La dispersion (dispersion, epsilon) représente l'erreur maximale (maximum error) inhérente à la mesure. Elle augmente à un taux égal à la tolérance de fréquence maximale disciplinée de l'horloge système (maximum disciplined system clock frequency tolerance, PHI), généralement 15 ppm. La gigue (jitter, psi) est définie comme la moyenne quadratique (root-mean-square, RMS) des différences de décalage les plus récentes, et elle représente l'erreur nominale (nominal error) dans l'estimation du décalage.

Tandis que les statistiques theta, delta, epsilon et psi représentent des mesures de l'horloge système par rapport à chaque horloge serveur séparément, le protocole NTP inclut des mécanismes pour combiner les statistiques de plusieurs serveurs afin de discipliner et calibrer plus précisément l'horloge système. Le décalage système (system offset, THETA) représente l'estimation de décalage de vraisemblance maximale (maximum-likelihood offset estimate) pour la population de serveurs. La gigue système (system jitter, PSI) représente l'erreur nominale dans l'estimation du décalage système. Les statistiques delta et epsilon sont accumulées à chaque niveau de strate (stratum level) depuis l'horloge de référence pour produire les statistiques de délai racine (root delay, DELTA) et de dispersion racine (root dispersion, EPSILON). La distance de synchronisation (synchronization distance, LAMBDA) égale à EPSILON + DELTA / 2 représente l'erreur maximale due à toutes les causes. Les formulations détaillées de ces statistiques sont données dans la Section 11.2. Elles sont disponibles pour les applications dépendantes afin d'évaluer la performance de la fonction de synchronisation.