Durant notre visite Hugo nous expliquait le fonctionnement du centre de données de l'UOF. Qui a pour rôle principal d'héberger tous les systèmes informatiques de L'UOF et aussi assurer leur protection; controler leur accessibilite.
La Sauvegarde des données se fait de façon périodique, c’est-à-dire temporelle. Chaque jour, ceux-ci recueille des données à la fin de la journée et leur regroupent tous ensemble le vendredi et cela chaque semaine.
Tout ceci se fait via des serveurs hautement sécuriser, et qui consomment massivement l'électricité. Par ailleurs , en cas de coupures d'électricité, ses serveurs se trouvent alimenter par des onduleurs.
Ces onduleurs sont capables de fournir de l'énergie pendant une période bien déterminer(4 heures)
. Dans des plus grands data centers, les onduleurs ont une durer d'alimentation très élevée. Et en cas de pannes électriques, la sécurité des données se fait depuis des serveurs distants de l'autre bout du monde grace aux fibres optiques (cette méthode est très conteuse).
Ceux permettent aussi une conservation de données qui n'est malheureusement pas la plus fiable possible . nous expliquait Hugo.
La question à se poser ici est celle de savoir quelle est donc la meilleur maniere de conserver les donnees a longs terme dans les big data center?
La reponse est tirée lien explicatif "Plutôt que d'investir dans une solution technique, le recours à une solution de cloud computing peut permettre de garantir l'intégrité des données à long terme : il consiste à utiliser des ressources informatiques (serveurs, espaces de stockages et/ou logiciels) qui n'appartiennent pas à l'utilisateur."