Clause de non-responsabilité : les informations suivantes sont destinées à présenter notre orientation générale concernant les produits. Ces données ne sont fournies qu’à titre informatif et ne peuvent être intégrées dans un contrat. Elles ne sauraient constituer un engagement d’Oracle à offrir l’un ou l’autre de ces produits, programmes ou fonctionnalités, ni servir de base pour la prise de décisions d’achat. Le développement, la publication, le calendrier et les tarifs des caractéristiques ou fonctionnalités exposés pour les produits Oracle sont susceptibles d’être modifiés et relèvent de la seule discrétion d’Oracle Corporation.

Cette FAQ répond à des questions courantes sur la façon dont Oracle assure la résilience et une disponibilité continue de ses services d'infrastructure de base et de sa plate-forme d'hébergement. Les réponses peuvent intéresser les clients d'Oracle Cloud à plusieurs titres :

  • Elles aident les clients à réaliser la diligence raisonnable requise lorsqu'ils évaluent la plateforme d'hébergement et les services d'Oracle.
  • Nombre des réponses traitent des défis et des solutions qui sous-tendent l'ensemble des systèmes à l'échelle du cloud. Elles fournissent donc des informations sur l'architecture et la conception des systèmes que les clients souhaitent créer dans le cloud.

FAQ sur la résilience et la disponibilité continue des services et de la plate-forme Oracle Cloud Infrastructure

Tout ouvrir Tout fermer
  • Oracle a-t-il plusieurs classes de service, par exemple les services stratégiques, disponibles en permanence ou à emplacement unique ?

    Nous ne faisons pas de telles distinctions. Nous catégorisons plutôt les services en fonction du niveau de dépendance, de la portée de disponibilité et du plan de données par rapport au plan de contrôle. Ces catégories permettent de fournir divers compromis utiles entre disponibilité, durabilité, performances et confort.

    Niveaux de dépendance

    Ces niveaux peuvent être considérés comme les couches d'un schéma fonctionnel architectural. Chaque couche ne dépend que des couches inférieures.

    De bas en haut :

    • Services principaux : ils constituent le fondement d'Oracle Cloud Infrastructure. Il s'agit notamment d'Identity and Access Management (IAM), de Key Management, de Networking, de Compute, de Block Volumes, d'Object Storage, de Telemetry et de plusieurs services internes partagés. Ils sont conçus pour limiter les dépendances, y compris les unes avec les autres. (Pour plus d'informations sur les dépendances, reportez-vous plus loin dans ce document.)
    • IaaS : cette couche offre davantage de fonctionnalités de niveau infrastructure, reposant sur le coeur. Les services de cette couche incluent File Storage, Database et Container Engine for Kubernetes.
    • SaaS : cette couche est composée de logiciels avancés en tant que services qui reposent sur des couches inférieures.

    Portée de la disponibilité

    Pour répondre aux objectifs de disponibilité et de durabilité pour un service, l'une des portées de disponibilité suivantes est choisie pour chaque service :

    • Local avec des domaines de disponibilité : chaque domaine de disponibilité contient une instance indépendante du service. Ces services assurent une durabilité élevée des données stockées à l'aide de la réplication synchrone entre répliques au sein du même domaine de disponibilité (pour plus de détails, reportez-vous à la section sur les domaines de pannes plus tard dans ce document). Ils peuvent tolérer une panne d'un tiers de l'infrastructure du domaine de disponibilité, ou plus selon la nature du service. Les services locaux de domaine de disponibilité atteignent ce niveau de tolérance de panne en utilisant au sein du domaine de disponibilité deux types de centre de données logique (groupes logiques d'isolation des pannes et d'isolation des performances). Pour plus de détails, reportez-vous aux sections sur les domaines de pannes et sur les cellules de service plus loin dans ce document. Enfin, ces services peuvent continuer à fonctionner comme d'habitude même si le domaine de disponibilité ne peut communiquer avec un quelconque autre domaine de disponibilité. Par conséquent, ils tolèrent la perte d'autres domaines de disponibilité ou une défaillance complète du réseau WAN dans la région.
    • Régional à plusieurs domaines de disponibilité : chaque région (à plusieurs domaines de disponibilité) contient une instance indépendante du service, des composants se trouvant dans chaque domaine de disponibilité. Ces services offrent une très haute durabilité des données stockées à l'aide de la réplication synchrone dans plusieurs domaines de disponibilité de la même région. Ils peuvent tolérer la panne de n'importe quel domaine de disponibilité dans une région ou l'incapacité à communiquer avec celui-ci.
    • Service régional à domaine de disponibilité unique : si une région ne contient qu'un domaine de disponibilité, les caractéristiques visibles du service régional correspondent à celles du service local de domaine de disponibilité, décrites précédemment. La différence entre le service local de domaine de disponibilité et le service régional de domaine de disponibilité unique ne s'exprime que si une région à domaine de disponibilité unique est étendue via l'ajout de domaines de disponibilité. Dans ce cas, chaque service régional est automatiquement étendu de manière à permettre l'utilisation appropriée des nouveaux domaines de disponibilité, tout en ne conservant qu'une seule instance du service. Par exemple, le plan de données Object Storage serait étendu pour utiliser les domaines de disponibilité supplémentaires afin d'améliorer la durabilité des données existantes. En revanche, avec les services locaux de domaine de disponibilité, chacun des nouveaux domaines de disponibilité reçoit sa propre instance de chaque service local de domaine de disponibilité.
    • Répartition dans les régions : l'un des principes de base d'Oracle Cloud Infrastructure est que chaque région est aussi indépendante que possible des autres sur le plan opérationnel. La mention "possible" reflète le fait que les régions partagent nécessairement au moins une partie de l'infrastructure, par exemple le réseau de base inter-régional. Sinon, nous ne créons pas de mécanismes de couplage étroit entre les régions, tels que la haute disponibilité transparente ou le basculement en cas d'incident, qui pourraient causer des problèmes qui affectent simultanément plusieurs régions. Nous préférons fournir deux mécanismes de distribution des services dans les diverses régions, présentant un couplage léger :
      • Reprise après sinistre : permettre à nos clients de créer des systèmes offrant des fonctionnalités de récupération après sinistre est l'une des clés de notre approche et de notre investissement dans le cloud. Plusieurs services principaux proposent déjà des mécanismes de récupération après sinistre, par exemple la sauvegarde inter-région de Block Volumes et la copie inter-région d'Object Storage. Les fonctionnalités de récupération après sinistre sont considérées comme des éléments prioritaires dans leurs feuilles de route.
      • Abonnements entre régions : actuellement, les abonnements entre régions ne sont disponibles que pour les données IAM. Conceptuellement, les données IAM ont une portée globale. Les clients peuvent s'abonner à (choisir) un ensemble de régions. Nous y répliquons automatiquement les données IAM appropriées et les mises à jour apportées par la suite. Pour éviter tout couplage étroit, la réplication est asynchrone et cohérente à terme. Les clients apportent des modifications à leurs données IAM dans une région d'origine désignée. Si, pour certaines raisons, la région d'origine en cours n'est plus disponible ou ne convient plus, une autre région peut être désignée.

    Plan de contrôle et plan de données

    Le plan de données d'un service est l'ensemble des interfaces et des composants de traitement des données qui implémentent les fonctionnalités devant être utilisées par les applications. Par exemple, le plan de données du réseau cloud virtuel (VCN) inclut le système de traitement de paquets réseau, les routeurs virtualisés et les passerelles, tandis que le plan de données Block Volumes inclut l'implémentation du protocole iSCSI et du système de stockage répliqué tolérant les pannes pour les données de volume.

    Le plan de contrôle d'un service est l'ensemble des API et des composants qui souscrit aux tâches suivantes :

    • Gestion des demandes client pour le provisionnement, la reconfiguration, le redimensionnement ou l'arrêt des ressources
    • Application automatique de correctifs aux grandes flottes, rapidement et en toute sécurité
    • Détection des ressources en échec, endommagées ou configurées de façon incorrecte
    • Réparation automatique ou demande d'assistance aux opérateurs
    • Collaboration avec d'autres plans de contrôle ( Compute, VCN et Block Storage sont par exemple couplés pendant LaunchInstance)
    • Gestion de la capacité non utilisée
    • Coordination avec le personnel humain, par exemple à l'arrivée d'un nouvel équipement, lors de réparations physiques ou de maintenance
    • Visibilité et contrôle opérationnels
  • Comment Oracle garantit-il que les services sont résilients et disponibles en permanence ?

    Quel que soit le type de service, nous utilisons le même ensemble de principes d'ingénierie pour atteindre la résilience et la disponibilité, car les principaux défis d'ingénierie de la création de systèmes distribués tolérant les pannes et évolutifs sont les mêmes pour tous les services.

    Pour bénéficier de la résilience et d'une disponibilité continue, il est nécessaire de comprendre, puis de traiter toutes les causes d'indisponibilité (dégradation des performances et échecs non gérés) des systèmes à l'échelle du cloud. Ces causes sont très diverses. Nous les regroupons donc par catégorie, selon leur nature fondamentale.

    Traditionnellement, l'analyse de la disponibilité des systèmes informatiques professionnels met l'accent sur la catégorie des pannes matérielles. Toutefois, dans le cas des systèmes cloud, la défaillance matérielle constitue un problème à la fois mineur et bien maîtrisé. Il est aujourd'hui relativement simple d'éviter la plupart des pannes matérielles ponctuelles, ou d'en limiter l'impact. Par exemple, les rack peuvent disposer de deux alimentations et d'unités d'alimentation associées. Nombre de composants sont par ailleurs échangeables à chaud. Les pertes et les pannes matérielles à grande échelle sont naturellement possibles, par exemple, dans le cas d'une catastrophe naturelle. Cependant, notre expérience et les rapports d'analyses publié a posteriori sur les problèmes par d'autres fournisseurs de cloud indiquent que les cas de panne ou de perte de tout un data center sont extrêmement rares par rapport aux autres causes d'indisponibilité. Les pannes matérielles à grande échelle doivent quand même être prises en compte (par exemple, avec un mécanisme de récupération après sinistre), mais elles ne représentent pas le principal problème pour la disponibilité.

    Voici les causes majeures d'absence sur les systèmes à l'échelle du cloud :

    • Bugs logiciels
    • Erreur de configuration
    • Erreurs des opérateurs
      Remarque : l'étape principale du secteur est que ces trois types d'erreur humaine représentent de loin les principales causes d'indisponibilité. Si leur fréquence peut être diminuée grâce à des outils, à l'automatisation et à des formations, elles ne peuvent pas être éliminées. Par conséquent, elles doivent être considérées comme un défi majeur pour l'architecture, la conception et la mise en œuvre du système.
    • Variation inacceptable des performances (latence ou débit), quelle qu'elle soit, par exemple :
      • "Voisins bruyants" multi-locataires (défaillance des mécanismes QoS)
      • Incapacité à rejeter efficacement les surcharges (accidentelles ou malveillantes) et à continuer à effectuer des tâches utiles
      • Ecroulement, pics de messages, pics de nouvelles tentatives et autres interactions « émergentes » très coûteuses en ressources
      • Choc à froid (caches vides) après un redémarrage, notamment dans le cas d'un redémarrage simultané de plusieurs systèmes
      • Frais généraux lors de la mise à l'échelle du système (par exemple, resharding)
    • Echec de la limitation du « rayon d'impact » (nombre de clients et de systèmes affectés) des différents problèmes ci-avant

    Ces problèmes sont universels. Ils font partie intégrante des « lois de la physique » qui s'appliquent aux systèmes distribués à l'échelle du cloud.

    Pour répondre aux problèmes de chacune des catégories précédentes, nous mettons en oeuvre des stratégies d'ingénierie ayant déjà fait leurs preuves. Voici les stratégies les plus importantes :

    • Principes d'architecture et de conception de système
    • Nouveaux concepts d'architecture (qui résultent généralement de l'application des principes)
    • Procédures d'ingénierie appliquées aux services

    Principes d'architecture et de conception de système

    Plusieurs de ces principes existent, mais nous allons nous concentrer sur les plus pertinents pour la résilience et la disponibilité.

    Calcul orienté récupération

    Pour gérer les bugs logiciels et les erreurs des opérateurs dont l'impact est relativement localisé, nous appliquons les principes de l'informatique orientée récupération1. À un niveau élevé, cela signifie qu'au lieu d'essayer de garantir que nous n'avons jamais de problème (ce qui est impossible à tester), nous nous nous concentrons sur le traitement de tous les problèmes de manière discrète, d'une manière qui peut être testée. En particulier, nous mettons l'accent sur la réduction de la durée moyenne de récupération (MTTR), qui combine la durée moyenne de détection, de diagnostic et d'atténuation.

    Notre objectif est de procéder à une récupération si rapide que le problème ne pose pas de problème aux utilisateurs. Les points suivants nous permettent d'atteindre cet objectif :

    • Détecter rapidement et automatiquement les symptômes des bugs et des erreurs des opérateurs, à l'aide d'assertions généralisées dans le code, et à la surveillance et aux alertes actives à tous les niveaux.
    • Regrouper les fonctionnalités en de nombreuses unités d'isolation détaillées distinctes (threads, processus, fibres, machines à états, etc.) présentant un couplage léger : pas de partage direct de la mémoire susceptible d'être altérée.
    • En cas de détection des symptômes d'un bug ou d'une erreur d'un opérateur, redémarrage automatique et rapide de l'unité d'isolation concernée. Le redémarrage est un moyen pratique de tenter une récupération suite à une défaillance arbitraire, car il tente de rétablir un état testé et restaure les invariants.
    • Si la récupération au niveau d'isolation le plus détaillé ne fonctionne pas (par exemple, la fréquence de déclenchement des applications à ce niveau est toujours trop élevée et provoque des pannes en boucle), passez à l'unité supérieure suivante (processus, exécution, hôte, centre de données logique, pagination d'un opérateur).
    • Création de mécanismes autorisant une « annulation à l'échelle du système », dont la gestion des versions de l'état persistant et de la configuration, afin d'identifier et d'annuler rapidement les validations erronées.

    Limiter les effets des problèmes

    Pour faire face aux bugs et aux erreurs susceptibles d'avoir des effets plus larges, nous créons des mécanismes pour limiter le « rayon d'impact ». C'est-à-dire que nous mettons l'accent sur la réduction du nombre de clients, de systèmes ou de ressources affectés par tous les problèmes, y compris ceux, particulièrement délicats, des « voisins bruyants », de la surcharge, de la diminution de la capacité et de le trashing des systèmes distribués. Pour ce faire, nous avons recours à divers périmètres isolés et pratiques de gestion des modifications (voir sections suivantes).

    Concepts architecturaux résultant des principes de conception

    Plusieurs de ces concepts existent, mais nous allons nous concentrer sur des concepts pour limiter le rayon d'impact.

    Concepts de positionnement englobés dans notre API publique : Régions, domaines de disponibilité et domaines de pannes

    Les domaines de pannes étant relativement nouveaux, nous allons les décrire plus en détail.

    Les domaines de pannes servent à limiter le rayon d'expiration des problèmes susceptibles de survenir lors de la modification active d'un système, par exemple : déploiement, application de patches, redémarrage d'hyperviseur et maintenance physique.

    L'utilisateur a l'assurance que, dans un domaine de disponibilité donné, les ressources d'un seul et même domaine de pannes sont en cours de modification à tout moment. Si quelque chose ne fonctionne pas correctement dans le processus de modification, il est possible que tout ou partie des ressources du domaine de pannes soient disponibles pendant un moment. En revanche, les autres domaines de pannes du domaine de disponibilité ne sont pas affectés. Chaque domaine de disponibilité contient au moins trois domaines de pannes. Cela permet d'héberger des systèmes de réplication basés sur un quorum (comme Oracle Data Guard) à haute disponibilité au sein d'un seul et même domaine de disponibilité.

    Ainsi, pour une catégorie majeure de problèmes de disponibilité, tels que les bugs, les erreurs de configuration, les opérateurs et les problèmes de performances survenus au cours d'une procédure de modification, chaque domaine de pannes fait office de centre de données logique distinct dans le domaine de disponibilité.

    Les domaines de pannes offrent également une protection contre certains types de panne matérielle localisée. Les propriétés des domaines de pannes garantissent que les ressources qui y sont placées ne partagent aucun point potentiel de panne matérielle au sein du domaine de disponibilité, dans la mesure du possible. Par exemple, les ressources de domaines de pannes différents ne partagent pas le même commutateur réseau en haut de rack. La redondance est en effet limitée à la conception standard de ce type de commutateur.

    Toutefois, la protection assurée par les domaines de pannes contre les problèmes liés au matériel ou à l'environnement physique s'exerce seulement au niveau local. Contrairement aux domaines de disponibilité et aux régions, les domaines de pannes ne permettent pas d'isolement physique à grande échelle de l'infrastructure. Dans le rare cas d'une catastrophe naturelle ou d'une panne d'infrastructure concernant tout le domaine de disponibilité, les ressources des différents domaines de pannes seraient probablement affectées en même temps.

    Nos services internes utilisent les domaines de pannes de la même façon que les clients doivent les utiliser. Par exemple, les services Block Volumes, Object Storage et File Storage stockent des répliques des données dans trois domaines de pannes distincts. Tous les composants de l'ensemble des plans de contrôle et de données sont hébergés dans les trois domaines de pannes (ou, dans plusieurs domaines de disponibilité, dans le cas d'une région à plusieurs domaines de disponibilité).

    Cellules de service

    Les cellules de service servent à limiter le rayon d'expiration des problèmes susceptibles de survenir même en l'absence de modification active d'un système. Ces problèmes peuvent survenir car la charge de travail d'un système cloud multi-locataire peut changer de manière extrême à tout moment, et parce que des pannes partielles complexes peuvent survenir à tout moment dans n'importe quel système distribué volumineux. Ces scénarios peuvent occasionner des bugs cachés ou l'apparition de problèmes de performances.

    En outre, les cellules de service limitent également le rayon d'impact dans quelques rares scénarios complexes impliquant une modification active d'un système. Citons un exemple classique : le déploiement vers un domaine de pannes donné aboutit (pas d'erreur ou de modification des performances), mais dès la mise à jour du deuxième ou du dernier domaine de pannes, les interactions au sein du système (à l'échelle de l'ensemble du cloud avec une charge de travail de production) nuisent aux performances.

    L'utilisation des cellules de service est un modèle architectural, et non un concept explicitement nommé dans le SDK ou l'API Oracle Cloud. Tous les systèmes multi-utilisateurs peuvent recourir à ce modèle architectural. Il ne requiert pas de prise en charge spécifique par la plate-forme cloud.

    Les cellules de service fonctionnent comme suit :

    • Chaque instance du service (par exemple, dans une région particulière ou dans un domaine de disponibilité donné pour les services locaux de domaine de disponibilité) consiste en plusieurs déploiements distincts de la pile logicielle correspondante. Chaque déploiement est appelé cellule. Chaque cellule est hébergée sur sa propre infrastructure, dans la mesure du possible. Au minimum, les cellules ne partagent ni hôte ni machine virtuelle.
    • Un service peut démarrer avec une poignée de cellules dans chaque région ou domaine de disponibilité. Au cours de l'évolution du service et en fonction de la demande croissante, des cellules sont ajoutées pour limiter le rayon d'impact des éventuels problèmes. Un service d'ensemble très utilisé peut comporter de nombreuses cellules. En d'autres termes, les cellules effectuent un multiplexage n à m des workloads client vers des environnements d'hébergement distincts, qui constituent des îlots d'isolation des ressources. Les cellules n'ont pas de cardinalité claire, telle qu'elle existe pour les domaines de pannes. (tel que mentionné précédemment, le choix évident pour les domaines de pannes est une cardinalité de trois par domaine de disponibilité, ce qui permet aux systèmes de réplication basés sur un quorum d'être hébergés dans un seul et même domaine de disponibilité.)
    • Chaque « unité naturelle » de charge globale client est affectée à une cellule particulière. La notion d'« unité naturelle » dépend de la nature du service considéré. Par exemple, pour notre service de workflow partagé interne (voir plus loin), l'unité naturelle peut désigner tous les workflows du domaine de disponibilité ou de la région pour un plan de contrôle donné.
    • Avant chaque groupe de cellules se trouve une couche de routage minimaliste ou une API de repérage d'adresses de cellule. Par exemple, le système de Streaming/Messaging comporte une API destinée à repérer l'adresse de plan de données en cours d'une rubrique particulière. La banque de métadonnées interne dispose par cellule d'une adresse. Toutefois, d'autres services basés sur les cellules comportent une adresse de plan de données unique et une couche de routage partagée. La couche de routage est une cause potentielle de défaillance corrélée des cellules. Pour atténuer ce risque, l'accent est mis sur sa simplicité, sa prévisibilité et ses performances (pas d'opération coûteuse en ressources). De plus, elle est provisionnée avec une capacité de réserve importante et des mécanismes de quota et de limitation QoS sophistiqués.
    • Si nécessaire, les propriétaires de service peuvent déplacer une charge de travail d'une cellule à une autre à partir d'une autre. Exemples de scénarios :
      • Eviter le problème des « noisy neighbor » de plusieurs clients en déplaçant une charge de travail lourde de sorte que les autres utilisateurs d'une cellule ne soient pas affectés.
      • Facilitez la reprise après une surcharge ou une baisse d'efficacité, par exemple en raison d'une attaque par déni de service distribué. Les mécanismes de ralentissement et de quota en place permettent de se défendre contre ce type d'attaque. Cependant, parfois, des cas d'utilisation en périphérie se produisent, dans lesquels un cas d'utilisation particulier (API, modèle d'accès) peut se révéler plus problématique pour le service que ne le perçoivent les quotas ou les ralentissements. Les cellules offrent un mécanisme d'atténuation à court terme.
      • Répartir les charges de travail cruciales dans différentes cellules, pour nettement réduire le risque de défaillance corrélée Par exemple, pour notre workflow partagé interne relatif aux plans de contrôle, les plans de contrôle de « cœur critique » (par exemple, Platform, Compute, Networking et Block Volumes) sont affectés à des cellules distinctes et présentent ainsi une corrélation de défaillance nettement moins importante que si des cellules n'étaient pas utilisées ou qu'elles étaient affectées à la même cellule.
        Remarque : grâce aux cellules, les clients ont moins besoin de tenir compte des dépendances internes des services pour créer des applications résilientes. L'examen du graphe des dépendances demeure une bonne pratique (lire la suite pour plus de détails), mais il se révèle moins nécessaire quand un mécanisme de décorrélation est en place.

    Chaque cellule de service constitue donc encore un autre type de « centre de données logique » (groupe logique d'isolation des pannes et d'isolation des performances) au sein d'un domaine de disponibilité ou d'une région unique.

    En résumé, les cellules de service et les domaines de pannes sont complémentaires des façons suivantes :

    • Les domaines de pannes offrent une protection contre les problèmes susceptibles de survenir en cas de modification active d'un système.
    • Les cellules de service limitent le rayon d'impact en cas de problèmes potentiellement graves, que le système fasse l'objet d'une modification active ou pas.

    Nous combinons les propriétés des domaines de pannes et des cellules de service en une stratégie unifiée lors des déploiements et de l'application de patches.

    Procédures d'ingénierie appliquées aux services

    Les tests et l'excellence opérationnelle étant essentiels pour la fiabilité des systèmes cloud, nous suivons de nombreuses procédures d'ingénierie. Vous trouverez ci-dessous certaines de nos procédures les plus importantes, qui utilisent les concepts mentionnés dans la précédente section :

    • Nous déployons les services de façon incrémentielle, effectuons une validation soigneuse entre les étapes et procédons à une annulation automatique si un événement surprenant survient. Concrètement, nous appliquons le processus suivant :
      • Dans chaque domaine de disponibilité, nous procédons au déploiement vers une seule cellule de service à la fois. Dans chaque cellule, nous déployons vers un domaine de pannes à la fois, jusqu'à les avoir tous traités. Ensuite, nous passons à la cellule suivante du domaine de disponibilité.
      • Après chaque étape du déploiement (après chaque domaine de pannes et cellule), nous vérifions que la modification fonctionne comme prévu : pas de performances moindres ni d'erreurs internes ou externes. Si un événement inattendu ou une erreur se produit, nous annulons automatiquement la modification. Nous accordons beaucoup d'importance à la préparation et aux tests automatisés des procédures d'annulation, y compris les modifications affectant l'état persistant ou les schémas.
      • Nous déployons ainsi la modification domaine de disponibilité par domaine de disponibilité dans chaque région. Le déploiement dans l'ensemble des régions d'un domaine est effectué de manière à ne pas modifier simultanément deux régions susceptibles d'être utilisées par un client comme sites principal et de récupération après sinistre.
    • Nous vérifions régulièrement que les mécanismes de gestion des erreurs et autres systèmes d'atténuation fonctionnent comme prévu et n'améliorent pas le problème. Sans de tels tests, il arrive couramment que les mécanismes de gestion des erreurs (comme les nouvelles tentatives, les algorithmes de récupération après défaillance et les algorithmes de reconfiguration de machine à l'état) comportent des bugs, soient trop chers ou interagissent de manière surprenante, et engendrent donc un écroulement ou autres graves problèmes de performances.
    • Nous vérifions notre capacité à revenir rapidement et en toute sécurité aux derniers logiciels et configuration corrects, y compris l'état persistant et le schéma, comme décrit précédemment.
  • Dans les régions Oracle comportant plusieurs domaines de disponibilité, les services critiques sont-ils tous distribués dans les domaines de disponibilité ?

    Oui. Tous les domaines de disponibilité de chaque région offrent le même ensemble de services.

  • Comment Oracle et ses clients peuvent-ils éviter un service critique qui dépend d'un seul centre de données logique ?

    Dans les régions à domaine de disponibilité unique, les clients peuvent utiliser des domaines de pannes (groupes logiques caractérisés par des modes de défaillance décorrélée) pour bénéficier de la plupart des propriétés des centres de données logiques distincts. Ils peuvent également utiliser plusieurs régions pour la récupération après sinistre.

    Dans les régions à plusieurs domaines de disponibilité, les domaines de pannes peuvent être utilisés de la même manière. Ils ont aussi la possibilité de combiner des services locaux de domaine de disponibilité, des fonctionnalités de basculement inter-domaines de disponibilité (comme DBaaS avec Data Guard) et des services régionaux (Object Storage, Streaming) pour obtenir une haute disponibilité complète des « centres de données logiques » de niveau supérieur (domaines de disponibilité). Enfin, ils peuvent recourir à des régions multiples à des fins de DR.

    Dans tous les cas, les clients peuvent utiliser le concept des cellules de service pour mieux isoler les problèmes, même les plus graves comme l'impact sur la distribution.

  • Comment Oracle parvient-il à effectuer les activités de maintenance sans qu'un service essentiel soit temporairement indisponible pour les clients ?

    Cette opération s'effectue via des domaines de pannes, des cellules de service et des procédures opérationnelles de déploiement et de validation incrémentiels. Vous trouverez plus d'informations précédemment dans ce document.

  • Des services de plate-forme sans serveur sont-ils déployés dans plusieurs centres de données logiques pour une meilleure disponibilité ?

    Oui. Toutes les catégories de services sont déployées sur plusieurs centres de données logiques (à savoir des groupes logiques distincts d'isolation des pannes et d'isolation des performances) à des fins de résilience et de disponibilité permanente.

  • Si la résilience n'est pas la configuration par défaut, les clients peuvent-ils opter pour le déploiement de centres de données logiques multiples (par exemple, une configuration à domaines de disponibilité multiples ou inter-région) ?

    Dans les régions à domaine de disponibilité unique, nous proposons des domaines de pannes en tant que mécanisme pour les « centres de données logiques multiples », comme expliqué ailleurs dans ce document.

    Dans les régions à plusieurs domaines de disponibilité, nous proposons des services et des fonctionnalités offrant un niveau de durabilité physique des données répliquées de façon synchrone encore plus élevé (à un rapport coût/performances raisonnable du fait de la distance entre les domaines de disponibilité de la région et de la vitesse de la lumière).

    Nous ne proposons pas de mécanismes automatiques de haute disponibilité ou de basculement entre les régions. Cela créerait une relation de couplage fort entre les régions et risquerait de rencontrer des problèmes simultanément dans plusieurs régions. Nous préférons mettre en place différents types de réplication asynchrone entre les régions et proposons une liste de plus en plus longue de fonctionnalités, comme la sauvegarde et la copie asynchrones, pour assurer la récupération après sinistre entre les régions.

  • Comment Oracle permet-il aux clients d'éviter une défaillance corrélée des applications liée aux dépendances internes existant entre les différents services d'infrastructure et de plate-forme ?

    C'est une question compliquée. Pour plus de clarté, nous la reformulerons :

    • Si un client veut utiliser deux services Oracle (service A et service B) et souhaite créer une application résiliente si l'un des services connaît une défaillance, a-t-il besoin de savoir si le service A dépend du service B en interne ? Les dépendances internes mènent-elles dans une large mesure à une défaillance corrélée ? Si c'est le cas, le client peut avoir besoin de connaître ces dépendances internes afin de décider quelles autres utilisations faire du service A et du service B (ou choisir au contraire de faire intervenir un service C non associé pour ces autres cas) lorsqu'il crée ses propres mécanismes de résilience au niveau application.
    • Quel est le meilleur moyen de se défendre face à une défaillance corrélée des services Oracle ?

    Nous allons répondre en deux temps.

    Principes d'architecture

    Nous utilisons des principes architecturaux réduisant considérablement les défaillances corrélées entre services dépendants. Dans certains cas, cette technique réduit tellement le risque de défaillance corrélée qu'il n'y a plus lieu d'en tenir compte pour respecter un contrat de niveau de service de disponibilité.

    Nous utilisons notamment des cellules de service, comme expliqué précédemment dans ce document. Les cellules sont très utiles, car si le service interne A est concerné par un problème dans l'une de ses dépendances, le service B, ce problème sera très probablement circonscrit à une seule cellule. D'autres services de niveau supérieur, ainsi que les applications du client qui utilisent le service B, sont susceptibles d'utiliser d'autres cellules non touchées. Il s'agit d'un argument probabiliste qui varie en fonction du nombre de cellules, à savoir un paramètre interne masqué qui change (croît). Aucune quantification ou garantie n'est donc donnée, si ce n'est dans le cadre des contrats de niveau de service propres aux services A et B. En pratique toutefois, ce système peut nettement réduire les défaillances corrélées entre services.

    Bon nombre de nos services internes partagés (par exemple, les services de workflow et de métadonnées pour les plans de contrôle, et le service de messagerie/diffusion en continu) utilisent des cellules de service pour éviter toute panne corrélée des services en amont qui y utilisent.

    Dépendances

    Les éléments suivants sont généraux : l'implémentation de bas niveau et les détails des services peuvent changer. Pour les dimensions clés de calcul, de stockage, de réseau et d'authentification/autorisation, nous indiquons les dépendances suivantes.

    Voici les dépendances courantes pour les plans de contrôle :

    • Plan de données d'identité/de plate-forme pour l'authentification et l'autorisation
    • Service de suivi d'audit
    • Services internes assurant, par exemple, le workflow, le stockage de métadonnées et la journalisation
    • Les équilibreurs de charge de différents types

    Il est évident que certains plans de contrôle présentent des dépendances propres au service. Par exemple, lors du lancement d'une instance bare metal ou de machine virtuelle, le plan de contrôle Compute dépend des éléments suivants :

    • Object Storage (pour extraire l'image de système d'exploitation indiquée)
    • Plan de contrôle Block Volume (pour provisionner et associer le volume d'initialisation)
    • Plan de contrôle Networking (à des fins de provisionnement et d'attachement de VNIC)

    Généralement, le principe suivant est appliqué dans le cas des plans de données des services principaux : chaque plan de données est conçu de manière à minimiser le nombre de dépendances afin d'offrir une haute disponibilité, et d'accélérer le diagnostic et la récupération. Ce principe se traduit par les résultats suivants :

    • Le plan de données Networking est autonome.
    • Le plan de données Block Volume est autonome.
    • Les instances bare metal et de machine virtuelle de calcul dépendent des plans de données Block Volumes (pour les volumes d'initialisation) et Networking.
    • Le plan de données Object Storage dépend du plan de données Identity/Platform pour l'authentification et l'autorisation (en raison des attentes du secteur). Le plan de données Object Storage ne dépend ni de Block Volumes ni de File Storage.
    • Tous les services qui prennent en charge la sauvegarde et la restauration dépendent du plan de données Object Storage pour cette fonctionnalité.

    Pour les plans de données IaaS, le principe général est de dépendre uniquement de plans de données principaux ou de niveau inférieur (pour éviter les dépendances cycliques).

    • La base de données RAC multinoeuds dépend des plans de données Networking et Block Volumes.
    • Container Engine for Kubernetes dépend naturellement de Kubernetes et de ses dépendances transitives (par exemple, etcd), ainsi que du plan de données Networking.
    • L'ensemble de la prise en charge de la sauvegarde et de la restauration dépend du plan de données Object Store.
  • Les services Oracle Cloud Infrastructure d'une région, y compris les adresses d'API régionales, continuent-ils de fonctionner s'ils sont isolés des fonctions de plan de contrôle global ?

    Oui. Les services Oracle Cloud Infrastructure sont conçus pour être indépendants des régions, de sorte que les services d'une région Oracle Cloud Infrastructure puissent continuer à fonctionner même lorsque la région est isolée des autres régions Oracle Cloud Infrastructure et/ou du plan de contrôle global. Les fonctionnalités de plan de données et de plan de contrôle, y compris les adresses d'API de service, continuent d'être disponibles même si la région est isolée.

    De nombreux services Oracle Cloud Infrastructure proposent des fonctionnalités inter-région telles que la fonction de copie d'objet inter-région proposée par Oracle Cloud Infrastructure Object Storage. Les fonctionnalités inter-région d'Oracle Cloud Infrastructure sont toujours architecturées en tant que couche au-dessus du service de base. L'isolement des régions n'a donc pas d'impact sur le service de base, même s'il a un impact sur les fonctionnalités inter-région. Par exemple, la fonctionnalité de copie inter-région de banque d'objets Oracle Cloud Infrastructure est conçue comme une couche au-dessus du service de banque d'objets. Par conséquent, l'isolement d'une région peut avoir un impact sur la fonction de copie inter-région pertinente, mais n'a aucun impact sur le service de stockage d'objets de base de la région.

  • Les services Oracle Cloud Infrastructure dans un centre de données logique continuent-ils de fonctionner s'ils sont isolés des fonctions de plan de contrôle régional ?

    Oui. Les services Oracle Cloud Infrastructure sont conçus de sorte que les fonctionnalités de plan de données de chaque centre de données logique continuent de fonctionner même lorsqu'ils sont isolés du plan de contrôle régional correspondant. Par exemple, les instances de calcul Oracle Cloud Infrastructure d'un centre de données logique continueront à fonctionner avec les volumes de blocs attachés et les fonctionnalités de réseau virtuel associées, même lorsque le centre de données est isolé des fonctions de plan de contrôle de la gestion des calculs, du stockage de blocs, du VCN et/ou des identités et des accès.

  • Les régions Oracle Cloud Infrastructure disposent-elles de connexions Internet redondantes à des fins de haute disponibilité ?

    Oui. Oracle Cloud Infrastructure est connecté à Internet via plusieurs fournisseurs redondants dans toutes les régions commerciales. Ces connexions utilisent BGP (Border Gateway Protocol).