Recherche de code, dépôts, utilisateurs, problèmes, demandes de fusion…

Recherche de code, dépôts, utilisateurs, problèmes, demandes de fusion…

La recherche de code, de dépôts, d’utilisateurs, de problèmes et de demandes de fusion est essentielle pour les développeurs et les passionnés de technologie. Que vous cherchiez à comprendre comment fonctionne un code spécifique, à trouver des solutions à des problèmes de programmation ou simplement à découvrir de nouveaux projets intéressants, il est important d’avoir les bons outils à votre disposition.

Dans cet article, nous allons vous présenter différentes façons de rechercher du code, des dépôts, des utilisateurs, des problèmes et des demandes de fusion. Nous couvrirons différentes plateformes telles que GitHub, GitLab, Bitbucket et bien d’autres. Que vous soyez débutant ou expert en programmation, vous trouverez des conseils utiles pour vous aider à améliorer votre flux de travail et à trouver les informations dont vous avez besoin.

Journal des modifications

  • 08/2022 – Version initiale

Ce recueil d’automatismes de terraform pour Cloud Pak for Data – Data Fabric a été créé à partir d’un ensemble de modules Terraform créés par l’équipe IBM GSI Ecosystem Lab, faisant partie de l’organisation IBM Partner Ecosystem. Pour plus de détails, veuillez contacter Matthew Perrins à l’adresse mjperrin@us.ibm.com, ou Andrew Trice à l’adresse amtrice@us.ibm.com, ou Sumeet Kapoor à l’adresse sumeet_kapoor@in.ibm.com, ou Sasikanth Gumpana à l’adresse bgumpana@in.ibm.com, ou Snehal Pansare à l’adresse spansari@in.ibm.com, ou soulever un problème sur le dépôt.

L’automatisation prend en charge l’installation de la solution Data Fabric sur trois plates-formes cloud (AWS, Azure et IBM Cloud). La solution Data Fabric sur Cloud Pak for Data est nécessaire pour installer des outils supplémentaires, des services ou des cartouches, tels que Watson Knowledge Catalog, Watson Studio, Watson Machine Learning, Data Virtualization, ou des solutions multiproduits comme Data Fabric.

Infrastructure cible

L’automatisation Cloud Pak for Data 4.0 – Data Fabric suppose que vous disposez déjà d’un cluster OpenShift configuré sur votre cloud de choix. Les options gérées prises en charge sont ROSA pour AWS, ARO pour Azure ou ROKS pour IBM Cloud.

Avant de commencer à installer et à configurer Cloud Pak for Data, vous devrez identifier quelle sera votre infrastructure cible. Vous pouvez commencer à partir de zéro et utiliser l’une des architectures de référence prédéfinies d’IBM, ou apporter votre propre architecture.

Architectures de référence

Les architectures de référence sont fournies sous trois formes différentes, avec une sécurité croissante et une sophistication associée pour prendre en charge la configuration de production. Ces trois formes sont les suivantes :

  • Démarrage rapide – une architecture simple pour obtenir rapidement un cluster OpenShift provisionné.
  • Standard – un environnement de déploiement de production standard avec des protections de sécurité typiques, des points de terminaison privés, un serveur VPN, un chiffrement de gestion de clés, etc.
  • Avancé – un déploiement plus avancé qui utilise une isolation réseau pour acheminer de manière sécurisée le trafic entre les différentes couches.
À lire aussi  Comment fonctionne Deezer gratuit : tout savoir sur le streaming musical en ligne

Pour chacune de ces architectures de référence, nous avons fourni un ensemble détaillé d’automatismes pour créer l’environnement pour le logiciel. Si vous n’avez pas de cluster OpenShift provisionné, veuillez en utiliser un de ces architectures. Elles sont optimisées pour l’installation de cette solution.

Note : Les exigences système de Cloud Pak for Data 4.0 recommandent au moins 3 nœuds de travail, avec un minimum de 16 vCPU par nœud et 64 Go de RAM minimum par nœud (128 Go de RAM sont recommandés) pour la plateforme de base. Pour la solution Data Fabric, un total de 8 nœuds de travail, avec un minimum de 16 vCPU par nœud et 64 Go de RAM minimum par nœud, est requis.

Plateforme cloud, automatisation et documentation

  • IBM Cloud
  • IBM Cloud Démarrage rapide
  • IBM Cloud Standard
  • IBM Cloud Avancé
  • AWS
  • AWS Démarrage rapide
  • AWS Standard
  • AWS Avancé
  • Azure
  • Azure Démarrage rapide
  • Azure Standard
  • Azure Avancé
  • Utiliser votre propre infrastructure

Vous aurez besoin d’un cluster avec au moins 16 CPU et 64 Go de mémoire par nœud, ainsi que d’au moins 8 nœuds pour configurer la solution Data Fabric sur Cloud Pak for Data.

Pour commencer

Dans ce référentiel, vous trouverez un ensemble de modèles Terraform qui incarnent les meilleures pratiques pour la configuration et la mise en place de Data Fabric dans différents environnements cloud. Ce README.md décrit les étapes SRE nécessaires pour configurer et mettre en place la solution Data Fabric.

Cette suite d’automatisations peut être utilisée pour un environnement de preuve de technologie afin de configurer et mettre en place la solution Data Fabric avec un environnement cloud natif entièrement fonctionnel. Le logiciel s’installe en utilisant les meilleures pratiques GitOps avec Red Hat Open Shift GitOps.

Architecture de la solution Data Fabric

L’architecture de référence suivante représente la vue logique de la façon dont la solution Data Fabric fonctionne après son installation. Data Fabric est configuré sur une fondation de données qui est déployée avec soit Portworx, soit OpenShift Data Foundation, dans un cluster OpenShift sur le fournisseur cloud de votre choix.

Déploiement de la solution Data Fabric

Les instructions suivantes vous aideront à configurer et à mettre en place la solution Data Fabric sur les environnements AWS, Azure et IBM Cloud OpenShift Kubernetes.

Licences et droits d’utilisation

Les détails sur les licences de Cloud Pak for Data sont disponibles sur https://www.ibm.com/docs/en/cloud-paks/cp-data/4.0?topic=planning-licenses-entitlements.

Obtention de votre clé API de droit IBM

Vous devez disposer de votre clé API de droit IBM pour accéder aux images du Registre des droits IBM.

Après l’achat de Cloud Pak for Data, une clé API de droit pour le logiciel est associée à votre compte My IBM. Vous avez besoin de cette clé pour terminer l’installation de Cloud Pak for Data. Pour obtenir la clé de droit, suivez les étapes suivantes :

  1. Connectez-vous à la bibliothèque de logiciels Container sur My IBM avec l’ID IBM et le mot de passe associés au logiciel bénéficiaire.
  2. Dans l’onglet “Obtenir la clé de droit”, sélectionnez “Copier la clé” pour copier la clé de droit dans le presse-papiers.
  3. Enregistrez la clé API pour une utilisation ultérieure dans cette installation.
À lire aussi  Comment Répertorier Son Site Sur Google : Tout ce que Vous Devez Savoir

Installation en couches de Data Fabric

L’automatisation de Data Fabric est divisée en ce que nous appelons des couches d’automatisation ou des ensembles. Les ensembles permettent d’optimiser les activités SRE. L’automatisation est générique entre les cloud, à l’exception des options de stockage de configuration, qui sont spécifiques à la plateforme.

BOM ID Name Description Run Time

200 200 – OpenShift Gitops Configuration des outils OpenShift GitOps dans un cluster OpenShift. Cela est nécessaire pour installer le logiciel en utilisant des approches GitOps. 10 minutes

210 210 – IBM Portworx Storage
210 – IBM OpenShift Data Foundation
210 – AWS Portworx Storage
210 – Azure Portworx Storage Utilisez cette automatisation pour déployer une solution de stockage pour votre cluster. 10 minutes

300 300 – Cloud Pak for Data Entitlement Mettez à jour le cluster OpenShift avec votre clé de licence 5 minutes

305 305 – Cloud Pak for Data Foundation Déployez les composants de la fondation Cloud Pak for Data (4.0) 45 minutes

600 600 – datafabric-services-portworx
600 – datafabric-services-odf Déployez les services Data Fabric avec odf ou portworx 120 minutes

610 610 – datafabric-setup Déployez la configuration Data Farbic 5 minutes

Pour l’instant, la manière la plus fiable d’exécuter cette automatisation est avec Terraform sur votre machine locale, soit en utilisant une image de conteneur bootstrapée, soit avec des outils natifs installés. Nous fournissons une image de conteneur avec tous les outils SRE courants installés.

Étapes d’installation

Avant de commencer l’installation, veuillez installer les outils prérequis sur votre machine.

Nous avons testé cela sur un ordinateur portable Mac moderne. Nous testons également sur des machines M1. Vous devrez configurer les outils nativement dans votre système d’exploitation Mac M1, et ne pas exécuter le script launch.sh.

Configuration préalable

Veuillez installer les outils prérequis suivants pour vous aider à démarrer avec les tâches SRE pour installer Data Foundation dans un cluster OpenShift existant sur AWS, Azure ou IBM Cloud.

Prérequis :

  • Vérifiez que vous disposez d’un identifiant GitHub valide pouvant être utilisé pour créer un dépôt dans votre propre compte GitHub ou GitHub Enterprise.
  • Installez un éditeur de code, nous recommandons Visual Studio Code.
  • Installez Brew.

Assurez-vous de disposer des éléments suivants avant de continuer :

  • Un compte GitHub existe.
  • Un jeton GitHub est disponible avec les autorisations nécessaires pour créer et supprimer des dépôts.
  • Vous pouvez vous connecter au cluster OpenShift et obtenir un jeton d’authentification OpenShift.
  • Une clé d’accès à IBM Cloud Pak est nécessaire, elle peut être obtenue en visitant la bibliothèque de conteneurs IBM comme décrit ci-dessus.

Installation de Data Foundation

Le processus d’installation utilisera un référentiel GitOps standard qui a été construit à l’aide des modules pour prendre en charge l’installation de Data Foundation. L’automatisation est cohérente sur trois environnements cloud différents : AWS, Azure et IBM Cloud.

À lire aussi  Top 9 des jeux et applications mobiles pour gagner de l’argent facilement en jouant

Configuration de l’environnement d’exécution

Pour l’instant, la manière la plus fiable d’exécuter cette automatisation est avec Terraform sur votre machine locale, soit en utilisant une image de conteneur bootstrapée, soit une machine virtuelle. Nous fournissons à la fois une image de conteneur et un script cloud-init de machine virtuelle qui ont tous les outils SRE courants installés.

Nous vous recommandons d’utiliser Docker Desktop si vous choisissez la méthode de l’image de conteneur, et Multipass si vous choisissez la méthode de la machine virtuelle. Vous trouverez des instructions détaillées pour télécharger et configurer Docker Desktop et Multipass dans RUNTIMES.md.

  • Lancez le runtime d’automatisation.
  • Si vous utilisez Docker Desktop, exécutez ./launch.sh. Cela démarrera une image de conteneur avec l’invite ouverte dans le répertoire /terraform.
  • Si vous utilisez Multipass, exécutez mutlipass shell cli-tools pour démarrer le terminal interactif, et accédez au répertoire /automation/{template}, où {template} est le dossier que vous avez cloné. Assurez-vous d’exécuter source credentials.properties une fois dans le terminal.

Ensuite, vous devrez créer un espace de travail pour exécuter l’automatisation Terraform. Les paramètres suivants doivent être configurés pour votre espace de travail d’exécution Terraform :

  • Le fournisseur cloud de votre choix.
  • L’option de stockage souhaitée.
  • Un préfixe pour nommer les nouvelles instances de ressources sur le compte Cloud.
  • Si vous utilisez Azure, vous aurez besoin d’un fichier de spécification de Portworx (comme décrit ci-dessus) et, si votre cluster utilise un certificat SSL auto-signé, vous aurez besoin d’une copie du certificat de l’émetteur et du nom du fichier.

Afin de faciliter la création de l’espace de travail, exécutez la commande setup-workspace.sh -p ibm -s portworx -n df dans le répertoire /workspaces/current. Veuillez inclure les paramètres facultatifs au besoin.

Le fichier terraform.tfvars par défaut est symboliquement lié au nouveau dossier workspaces/current, ce qui vous permet de le modifier dans votre système d’exploitation natif à l’aide de votre éditeur préféré.

Modifiez le fichier terraform.tfvars par défaut pour configurer les paramètres GitOps.

Le déploiement est ensuite automatisé. Exécutez le script ./apply-all.sh dans le répertoire /workspaces/current pour déployer chaque couche de Data Foundation séquentiellement. Cette opération se terminera en 10 à 15 minutes, et Data Foundation continuera de s’exécuter de manière asynchrone en arrière-plan, ce qui peut prendre jusqu’à 45 minutes supplémentaires.

Pour une installation manuelle, vous pouvez déployer chaque couche manuellement en suivant les instructions de déploiement manuel.

Une fois le déploiement terminé, vous pourrez accéder à l’instance Data Foundation déployée en naviguant dans l’interface utilisateur OpenShift du cluster et en affichant les routes pour l’espace de noms cp4d. Vous trouverez ici l’URL de l’instance Data Foundation déployée. Ouvrez cette URL dans une nouvelle fenêtre de navigateur.

En résumé, l’installation de Data Foundation sur AWS, Azure et IBM Cloud est un processus complexe qui nécessite des connaissances approfondies des outils et des environnements spécifiques. Nous espérons que ce guide vous aidera à naviguer dans ces étapes et à installer avec succès Data Foundation dans votre environnement cloud. Si vous avez des problèmes ou des questions, n’hésitez pas à consulter le guide de dépannage ou à vous connecter à notre serveur Discord public pour obtenir de l’aide.