Convertisseur de Timestamp Unix : Guide Complet
Les timestamps Unix sont le langage universel du temps en informatique. Chaque fichier log, entrée de base de données et réponse API utilise des timestamps pour enregistrer quand les événements se sont produits. Ce guide complet explique comment les timestamps fonctionnent, pourquoi ils sont importants et comment travailler efficacement avec eux à travers systèmes et fuseaux horaires.
Qu'est-ce qu'un Timestamp Unix ?
Un timestamp Unix (également appelé temps Epoch ou temps POSIX) est une méthode de représentation du temps comme nombre simple : le nombre de secondes écoulées depuis le 1er janvier 1970, 00:00:00 UTC. Ce moment est appelé "Epoch Unix" et sert de point de référence universel pour le temps en informatique. La beauté des timestamps réside dans leur simplicité. Le nombre 1700000000 signifie exactement une chose : 1,7 milliard de secondes après l'Epoch, correspondant au 14 novembre 2023 à 22:13:20 UTC. Pas d'ambiguïté sur le format de date, pas de confusion de fuseau horaire, pas de considérations d'heure d'été - juste un nombre. Pourquoi cette approche a-t-elle été choisie ? Aux débuts du développement Unix fin années 1960, les ordinateurs avaient mémoire et puissance de calcul limitées. Stocker des dates comme chaînes ("14 novembre 2023") ou données structurées consommait des ressources précieuses. Un seul nombre était efficace à stocker, rapide à comparer et simple à calculer. Les timestamps Unix sont toujours en UTC (Temps Universel Coordonné), éliminant la complexité des fuseaux horaires au niveau stockage. Quand vous stockez un timestamp, vous stockez un moment objectif dans le temps. L'interprétation en heure locale se produit au moment de l'affichage, pas au moment du stockage. Le timestamp 0 représente l'Epoch : 1er janvier 1970, 00:00:00 UTC. Les nombres positifs représentent les moments après l'Epoch (la plupart des timestamps avec lesquels vous travaillerez). Les nombres négatifs représentent les moments avant l'Epoch - timestamp -86400 est le 31 décembre 1969. Différents systèmes utilisent différentes précisions. Unix traditionnel utilise secondes (10 chiffres comme 1700000000). JavaScript et beaucoup d'API modernes utilisent millisecondes (13 chiffres comme 1700000000000). Certains systèmes utilisent microsecondes ou nanosecondes. Vérifiez toujours avec quelle précision vous travaillez pour éviter erreurs de facteur 1000 ou plus.
Pourquoi Utiliser les Timestamps ?
Les timestamps résolvent des problèmes fondamentaux qui affligent d'autres représentations du temps. Comprendre leurs avantages vous aide à apprécier pourquoi ils sont universels en informatique, malgré leur nature peu conviviale pour l'humain. L'indépendance des fuseaux horaires est peut-être le plus grand avantage. Le timestamp 1700000000 signifie le même moment partout sur Terre. Pas besoin de spécifier un fuseau horaire, pas d'erreurs de conversion, pas de confusion d'heure d'été. Que vous soyez à Tokyo, Londres ou New York, ce timestamp représente le même moment. La gestion des fuseaux horaires se produit seulement au moment de l'affichage, pas lors du stockage ou du calcul. La triabilité et comparaison sont triviales. Est-ce que 1700000000 est avant ou après 1699999999 ? Comparaison numérique simple. Essayez de comparer "14 Nov 2023 22:13 CET" avec "14/11/2023 10:13pm EST" - vous devez analyser les formats de date, gérer les fuseaux horaires puis comparer. Les timestamps éliminent cette complexité. Les calculs de durée sont de l'arithmétique élémentaire. Combien de secondes entre deux événements ? Soustrayez les timestamps. Voulez-vous ajouter 30 jours à une date ? Ajoutez 2592000 (30 × 24 × 60 × 60). Pas besoin de tenir compte des longueurs de mois, années bissextiles ou changements de fuseau horaire. L'efficacité de stockage est importante à grande échelle. Un timestamp est 4 ou 8 octets (entier 32 ou 64 bits). Une chaîne de date comme "2023-11-14T22:13:20+00:00" est 25 octets. Quand vous avez des milliards d'entrées, cette différence est significative.
Millisecondes vs Secondes
Une des sources d'erreur les plus courantes avec les timestamps est confondre secondes et millisecondes. Cette différence de facteur 1000 résulte en temps soit très dans le passé soit très dans le futur, causant des bugs étonnamment difficiles à diagnostiquer. Les timestamps Unix traditionnels utilisent secondes depuis l'Epoch. Ceux-ci sont de 10 chiffres pour dates actuelles (comme 1700000000). La plupart des outils en ligne de commande, nombreuses API et bases de données comme MySQL utilisent les secondes. Quand la documentation dit "timestamp Unix", elle signifie normalement secondes. JavaScript et beaucoup de systèmes modernes utilisent millisecondes. Le Date.now() de JavaScript retourne un nombre de 13 chiffres (comme 1700000000000). Cela fournit précision sub-seconde pour timing d'événements et animation. Le System.currentTimeMillis() de Java retourne aussi millisecondes. Comment identifier avec quoi vous travaillez : Comptez les chiffres. 10 chiffres = secondes, 13 chiffres = millisecondes. Les timestamps actuels en secondes sont environ 1,7 milliard. En millisecondes ils sont environ 1,7 trillion. Si un timestamp vous donne une date en 1970 ou 55 000 après JC, vous avez probablement la mauvaise unité. Conversion entre elles : Secondes vers millisecondes : multiplier par 1000. Millisecondes vers secondes : diviser par 1000 (et optionnellement arrondir pour enlever décimales). Notre convertisseur gère automatiquement secondes et millisecondes, détectant quel format vous avez entré basé sur la taille du nombre. Vous pouvez aussi explicitement sélectionner le format pour cas limites.
Essayer l'Outil
Convertisseur de Timestamp
FAQ
Convertisseur de Timestamp
FAQ →