Importer et exporter des données
Cette page répertorie les méthodes disponibles pour importer des données depuis Bigtable et les exporter vers ce service.
Importer des données dans Bigtable
Pour importer des données BigQuery dans Bigtable, consultez Exporter des données vers Bigtable (ETL inversé) dans la documentation BigQuery.
Vous pouvez exécuter des requêtes continues sur vos données BigQuery et exporter les résultats vers Bigtable en temps réel à l'aide de l'ETL inversé. Pour en savoir plus, consultez Présentation des requêtes continues dans la documentation BigQuery.
Déplacer ou copier des données à l'aide d'un modèle
Vous pouvez utiliser les modèles Dataflow suivants pour déplacer ou copier des données entre Bigtable et d'autres sources ou destinations.
BigQuery
Le modèle Dataflow suivant vous permet d'exporter des données de BigQuery vers Bigtable.
Apache Cassandra vers Bigtable
Le modèle Dataflow suivant vous permet d'exporter des données d'Apache Cassandra vers Bigtable.
Fichiers Avro
Les modèles Dataflow suivants vous permettent d'exporter des données depuis Bigtable sous forme de fichiers Avro, puis de les réimporter dans Bigtable. Vous pouvez exécuter les modèles à l'aide de Google Cloud CLI ou de la console Google Cloud . Le code source se trouve sur GitHub.
Fichiers Parquet
Les modèles Dataflow suivants vous permettent d'exporter des données depuis Bigtable sous forme de fichiers Parquet, puis de les réimporter dans Bigtable. Vous pouvez exécuter les modèles à l'aide de gcloud CLI ou de la console Google Cloud . Le code source se trouve sur GitHub.
Fichiers SequenceFiles
Les modèles Dataflow suivants vous permettent d'exporter des données depuis Bigtable sous forme de fichiers SequenceFiles, puis de les réimporter dans Bigtable. Vous pouvez exécuter les modèles à l'aide de Google Cloud CLI ou de la console Google Cloud .
Importer depuis la page "Tables"
Vous pouvez exécuter la plupart des méthodes d'importation décrites sur cette page à l'aide de la consoleGoogle Cloud . Importez les types de données suivants depuis la page Tables :
- Données CSV
- Données BigQuery
- Fichiers Avro
- Espaces de clés et tables Cassandra
- Fichiers Parquet
Fichiers SequenceFile
Console
Ouvrez la liste des instances Bigtable dans la console Google Cloud .
Cliquez sur l'instance contenant la table que vous souhaitez importer.
Cliquez sur Tables dans le volet de gauche.
La page Tables affiche une liste des tables de l'instance.
À côté du nom de la table dans laquelle vous souhaitez importer des données, cliquez sur le menu
Action sur la table.Cliquez sur Importer des données, puis sélectionnez le type de données que vous souhaitez importer :
- Si vous sélectionnez Avro, Parquet, SequenceFile ou Cassandra, la console affiche un modèle Dataflow partiellement rempli. Remplissez le modèle de job, puis cliquez sur Exécuter le job.
- Si vous sélectionnez CSV, la fenêtre de terminal de la CLI
cbt
s'ouvre. Pour en savoir plus, consultez la section Importer des données CSV de ce document. - Si vous sélectionnez BigQuery, BigQuery Studio s'ouvre. Remplissez la requête ETL inversée et exécutez-la.
Exporter depuis la page Tables
Vous pouvez exécuter certaines des méthodes d'exportation décrites sur cette page à l'aide de la consoleGoogle Cloud . Vous pouvez exporter les types de données suivants depuis la page Tables :
- Fichiers Avro
- Fichiers Parquet
Fichiers SequenceFile
Console
Ouvrez la liste des instances Bigtable dans la console Google Cloud .
Cliquez sur l'instance contenant la table que vous souhaitez exporter.
Cliquez sur Tables dans le volet de gauche.
La page Tables affiche une liste des tables de l'instance.
À côté du nom de la table, cliquez sur le menu
Action sur le tableau.Cliquez sur Exporter les données, puis sélectionnez le type de fichier que vous souhaitez exporter.
La console affiche un modèle Dataflow partiellement rempli.
Remplissez le modèle de job, puis cliquez sur Exécuter le job.
Importer des données CSV
Vous pouvez importer des données à partir d'un fichier CSV dans une table Bigtable à l'aide de l'CLI cbt
. Pour ce faire, vous devez vous assurer que votre environnement, tel que Cloud Shell, peut accéder au fichier CSV. Vous pouvez importer votre fichier CSV dans Cloud Shell de l'une des manières suivantes :
Importer un fichier CSV local :
- Dans Cloud Shell, cliquez sur le menu Plus , puis sélectionnez Importer.
- Sélectionnez le fichier CSV sur votre ordinateur local.
- Une fois le fichier importé, faites-y référence par son nom dans la commande CLI
cbt
.
Copier un fichier CSV depuis Cloud Storage :
L'cbt
CLI ne permet pas d'importer directement des données à partir d'un bucket Cloud Storage. Vous devez d'abord copier le fichier CSV depuis Cloud Storage vers votre environnement Cloud Shell. Pour en savoir plus, consultez Importer un objet dans un bucket.
Une fois le fichier CSV disponible dans votre environnement, utilisez la commande CLI cbt
pour importer les données. Pour obtenir un exemple de commande, consultez Écrire par lot de nombreuses lignes en fonction du fichier d'entrée.
Étapes suivantes
- Créez, copiez ou restaurez une sauvegarde Bigtable.
- Découvrez les concepts liés à la conception d'un schéma Bigtable.
- Migrer vers Bigtable