Bigtable para usuários do DynamoDB

Este documento é destinado a desenvolvedores do DynamoDB e administradores de banco de dados que querem migrar ou projetar aplicativos para uso com o Bigtable como um repositório de dados. Antes de ler este documento, leia a Visão geral do Bigtable.

O Bigtable e o DynamoDB são armazenamentos de chave-valor distribuídos compatíveis com milhões de consultas por segundo (QPS), oferecem armazenamento que escalona até petabytes de dados e toleram falhas em nós.

Embora os conjuntos de recursos desses serviços de banco de dados sejam semelhantes, as arquiteturas subjacentes e os detalhes de interação diferem em aspectos importantes de entender antes de iniciar uma migração. Neste documento, destacamos as semelhanças e diferenças entre os dois sistemas de banco de dados.

Plano de controle

No DynamoDB e no Bigtable, o plano de controle permite configurar sua capacidade e configurar e gerenciar recursos. O DynamoDB é um produto sem servidor e o nível mais alto de interação com ele é o da tabela. No modo de capacidade provisionada, é aqui que você provisiona suas unidades de solicitação de leitura e gravação, seleciona suas regiões e replicação e gerencia backups. O Bigtable não é um produto sem servidor. É necessário criar uma instância com um ou mais clusters, cuja capacidade �� determinada pelo número de nós que elas têm. Para detalhes sobre esses recursos, consulte Instâncias, clusters e nós.

A tabela a seguir compara os recursos do plano de controle para o DynamoDB e o Bigtable.

DynamoDB Bigtable
Tabela : uma coleção de itens com uma chave primária definida. As tabelas têm configurações de backups, replicação e capacidade. Instância: um grupo de clusters do Bigtable em diferentes zonas ou regiões do Google Cloud, entre as quais ocorre a replicação e o roteamento de conexão. As políticas de replicação são definidas no nível da instância.

Cluster: um grupo de nós na mesma zona geográfica do Google Cloud, idealmente colocalizado com seu servidor de aplicativos por motivos de latência e replicação. A capacidade é gerenciada ajustando o número de nós em cada cluster.

Tabela: uma organização lógica de valores indexados por chave de linha.

Os backups são controlados no nível da tabela.
Unidade de capacidade de leitura (RCU) e unidade de capacidade de gravação (WCU): unidades que permitem leituras ou gravações por segundo com tamanho de payload fixo. Você é cobrado por unidades de leitura ou gravação para cada operação com tamanhos de payload maiores.

As operações UpdateItem consomem a capacidade de gravação usada para o maior tamanho de um item atualizado, antes ou depois da atualização, mesmo que ela envolva um subconjunto dos atributos do item.
Nó: um recurso de computação virtual responsável por ler e gravar dados. O número de nós que um cluster se traduz em limites de capacidade para leituras, gravações e verificações. É possível ajustar o número de nós de acordo com a combinação de metas de latência, contagem de solicitações e tamanho do payload.

Os nós SSD oferecem a mesma capacidade para leituras e gravações, ao contrário da diferença significativa entre RCU e WCU. Para mais informações, consulte Desempenho em cargas de trabalho típicas.
Partição: um bloco de linhas contíguas, apoiado por unidades de estado sólido (SSDs) colocalizados com nós.

Cada partição está sujeita a um limite absoluto de 1.000 WCUs, 3.000 RCUs e 10 GB de dados.
Tablet: um bloco de linhas contíguas apoiada pelo meio de armazenamento escolhido (SSD ou HDD).

As tabelas são fragmentadas em tablets para equilibrar a carga de trabalho. Os blocos não são armazenados em nós no Bigtable, mas no sistema de arquivos distribuídos do Google, que permite a redistribuição rápida de dados no escalonamento e fornece maior durabilidade ao manter várias cópias.
Tabelas globais: uma maneira de aumentar a disponibilidade e a durabilidade dos dados, propagando automaticamente alterações de dados por várias regiões. Replicação: uma maneira de aumentar a disponibilidade e a durabilidade dos dados, propagando automaticamente alterações de dados em várias regiões ou zonas dentro da mesma região.
Não relevante (N/A) Perfil do aplicativo: configurações que indicam ao Bigtable como rotear uma chamada de API do cliente para o cluster apropriado na instância. Também é possível usar um perfil de aplicativo como tag para segmentar métricas para atribuição.

Replicação geográfica

A replicação é usada para atender aos requisitos do cliente em:

  • Alta disponibilidade para a continuidade dos negócios no caso de uma falha zonal ou regional.
  • Deixar os dados de serviço próximos dos usuários finais para disponibilização de baixa latência onde quer que eles estejam.
  • Isolamento da carga de trabalho quando é preciso implementar uma carga de trabalho em lote em um cluster e depender da replicação para disponibilizar clusters.

O Bigtable aceita clusters replicados em quantas zonas estiverem disponíveis em até oito regiões do Google Cloud em que o Bigtable estiver disponível. A maioria das regiões tem três zonas. O Bigtable replica automaticamente os dados nos clusters em uma topologia multiprimária, o que significa que é possível ler e gravar em qualquer cluster. A replicação do Bigtable tem consistência posterior. Para detalhes, consulte a Visão geral da replicação.

O DynamoDB fornece tabelas globais compatíveis com a replicação de tabelas em várias regiões. As tabelas globais são multiprimárias e replicam automaticamente entre regiões. A replicação tem consistência posterior.

A tabela a seguir lista os conceitos de replicação e descreve a disponibilidade deles no DynamoDB e no Bigtable.

Propriedade DynamoDB Bigtable
Replicação multiprimária Sim.

Você pode ler e gravar em qualquer tabela global.
Sim.

É possível ler e gravar em qualquer cluster do Bigtable.
Modelo de consistência Consistência posterior.

Consistência na leitura das gravações no nível regional para tabelas globais.
Consistência posterior.

Consistência na leitura das gravações no nível do cluster para todas as tabelas, desde que você envie leituras e gravações ao mesmo cluster.
Latência de replicação Sem contrato de nível de serviço (SLA).

Segundos
Sem SLA.

Segundos
Granularidade de configuração Nível da tabela. Nível da instância.

Uma instância pode conter várias tabelas.
Implementação Crie uma tabela global com uma réplica de tabela em cada região selecionada.

Nível regional.

Replicação automática em todas as réplicas convertendo uma tabela em uma tabela global.

As tabelas precisam ter o DynamoDB Streams ativado, com o stream contendo as imagens nova e antiga do item.

Exclua uma região para remover a tabela global nela.
Criar uma instância com mais de um cluster.
A replicação é automática nos clusters da instância.

Nível zonal.

Adicione e remova clusters de uma instância do Bigtable.
Opções de replicação Por tabela. Por instância.
Roteamento de tráfego e disponibilidade Tráfego roteado para a réplica geográfica mais próxima.

Em caso de falha, você aplica a lógica de negócios personalizada para determinar quando redirecionar as solicitações para outras regiões.
Use perfis de aplicativo para configurar políticas de roteamento de tráfego do cluster.

Use o roteamento de vários clusters para rotear o tráfego automaticamente para o cluster íntegro mais próximo.

Em caso de falha, o Bigtable oferece suporte ao failover automático entre clusters para alta disponibilidade.
Escalonamento A capacidade de gravação em unidades de solicitação de gravação replicada (R-WRU, na sigla em inglês) é sincronizada entre as réplicas.

A capacidade de leitura em unidades de capacidade de leitura replicadas (R-RCU) é por réplica.
É possível escalonar clusters de maneira independente adicionando ou removendo nós de cada cluster replicado, conforme necessário.
Custo Os R-WRUs custam 50% mais do que os WRUs normais. A cobrança é feita pelos nós e pelo armazenamento de cada cluster.
Não há custos de replicação de rede para replicação regional entre zonas.
Os custos são gerados quando a replicação ocorre entre regiões ou continentes.
SLA 99,999% 99,999%

Plano de dados

A tabela a seguir compara conceitos de modelo de dados para o DynamoDB e o Bigtable. Cada linha da tabela descreve atributos semelhantes. Por exemplo, um item no DynamoDB é semelhante a uma linha no Bigtable.

DynamoDB Bigtable
Item : um grupo de atributos que são exclusivamente identificáveis entre todos os outros itens pela chave primária. O tamanho máximo permitido é de 400 KB. Linha: uma única entidade identificada pela chave de linha. O tamanho máximo permitido é de 256 MB.
N/A Grupo de colunas: um namespace especificado pelo usuário que agrupa colunas.
Atributo: um agrupamento de um nome e um valor. Um valor do atributo pode ser um tipo escalar, de conjunto ou de documento. Não há um limite explícito para o tamanho do atributo. No entanto, como cada item está limitado a 400 KB, para um item que tem apenas um atributo, o atributo pode ter até 400 KB menos o tamanho ocupado pelo nome do atributo. Qualificador de coluna : o identificador exclusivo em um grupo de colunas de uma coluna. O identificador completo de uma coluna é expresso como column-family:column-qualifier. Os qualificadores de coluna são classificados lexicograficamente dentro do grupo de colunas.

O tamanho máximo permitido para um qualificador de coluna é 16 KB.


Célula: uma célula contém os dados de uma determinada linha, coluna e carimbo de data/hora. Uma célula contém um valor de até 100 MB.
Chave primária : um identificador exclusivo para um item em uma tabela. Pode ser uma chave de partição ou uma chave composta.

Chave de partição: uma chave primária simples, composta por um atributo. Isso determina a partição física em que o item está localizado. O tamanho máximo permitido é de 2 KB.

Chave de classificação: uma chave que determina a ordem das linhas em uma partição. O tamanho máximo permitido é de 1 KB.

Chave composta: uma chave primária composta de duas propriedades, a chave de partição e uma chave de classificação ou um atributo de intervalo.
Chave de linha : um identificador exclusivo para um item em uma tabela. Normalmente representado por uma concatenação de valores e delimitadores. O tamanho máximo permitido é 4 KB.

Os qualificadores de coluna podem ser usados para fornecer um comportamento equivalente ao da chave de classificação do DynamoDB.

As chaves compostas podem ser criadas usando chaves de linha e qualificadores de coluna concatenados.

Para mais detalhes, consulte o exemplo de conversão de esquema na seção "Design de esquema" deste documento.

Time to live : os carimbos de data/hora por item determinam quando um item não é mais necessário. Após a data e a hora do carimbo de data/hora especificado, o item será excluído da tabela sem consumir nenhuma capacidade de gravação. Coleta de lixo : os carimbos de data/hora por célula determinam quando um item não é mais necessário. A coleta de lixo exclui itens expirados durante um processo em segundo plano chamado compactação. As políticas de coleta de lixo são definidas no nível do grupo de colunas e podem excluir itens não apenas com base na idade, mas também de acordo com o número de versões que o usuário quer manter. Você não precisa acomodar a capacidade de compactação ao dimensionar os clusters.

Operações

Com as operações do plano de dados, é possível executar ações de criação, leitura, atualização e exclusão (CRUD, na sigla em inglês) nos dados de uma tabela. A tabela a seguir compara operações de plano de dados semelhantes para o DynamoDB e o Bigtable.

DynamoDB Bigtable
CreateTable CreateTable
PutItem
BatchWriteItem
MutateRow
MutateRows
O Bigtable trata operações de gravação como inserções.
UpdateItem
  • Gravação condicional
  • Aumento e diminuição

O Bigtable trata operações de gravação como upserts.
GetItem
BatchGetItem, Query e Scan
"ReadRow"
"ReadRows" (intervalo, prefixo, verificação reversa)
O Bigtable oferece suporte à verificação eficiente por prefixo de chave de linha, padrão de expressão regular ou intervalo de chave de linha para frente ou para trás.

Tipos de dados

O Bigtable e o DynamoDB não têm esquemas. As colunas podem ser definidas no momento da gravação sem qualquer aplicação em toda a tabela para a existência de colunas ou tipos de dados. Da mesma forma, um determinado tipo de dados de coluna ou atributo pode diferir de uma linha ou item para outro. No entanto, as APIs DynamoDB e Bigtable lidam com tipos de dados de maneiras diferentes.

Cada solicitação de gravação do DynamoDB inclui uma definição de tipo para cada atributo, que é retornada com a resposta para solicitações de leitura.

O Bigtable trata tudo como bytes e espera que o código do cliente saiba o tipo e a codificação para que o cliente possa analisar as respostas corretamente. Uma exceção são as operações de incremento, que interpretam os valores como números inteiros com sinal big-endian de 64 bits.

A tabela a seguir compara as diferenças nos tipos de dados entre o DynamoDB e o Bigtable.

DynamoDB Bigtable
Tipos escalares : retornados como tokens de descritor do tipo de dados na resposta do servidor. Bytes: bytes são transmitidos para os tipos pretendidos no aplicativo cliente.

Increment interpreta o valor como número inteiro com sinal big-endian de 64 bits
Conjunto : uma coleção não classificada de elementos exclusivos. Grupo de colunas: você pode usar qualificadores de coluna como nomes de membros definidos e, para cada um deles, forneça um único byte 0 como o valor da célula. Os membros do conjunto são classificados lexicograficamente dentro do grupo de colunas.
Mapa : uma coleção não classificada de pares de chave-valor com chaves exclusivas. Grupo de colunas
Use o qualificador de coluna como chave do mapa e valor da célula para o valor. As chaves de mapa são classificadas lexicograficamente.
Lista : é uma coleção classificada de itens. Qualificador de coluna
Use o carimbo de data/hora de inserção para conseguir o equivalente ao comportamento de list_append, ao contrário do carimbo de data/hora de inserção para o prefixo.

Projeto do esquema

Uma consideração importante no design do esquema é como os dados são armazenados. Entre as principais diferenças entre o Bigtable e o DynamoDB, estão a maneira como eles lidam com o seguinte:

  • Atualizações para valores únicos
  • Classificação de dados
  • Controle de versão de dados
  • Armazenamento de grandes valores

Atualizações para valores únicos

As operações UpdateItem no DynamoDB consomem a capacidade de gravação para os maiores tamanhos de item "antes" e "depois", mesmo que a atualização envolva um subconjunto dos atributos do item. Isso significa que, no DynamoDB, é possível colocar colunas atualizadas com frequência em linhas separadas, mesmo que elas pertençam logicamente à mesma linha que as outras colunas.

O Bigtable pode atualizar uma célula com a mesma eficiência, seja ela a única coluna em uma determinada linha ou uma entre milhares. Para detalhes, consulte Gravações simples.

Classificação de dados

O DynamoDB gera hashes de partição e distribui chaves de partição aleatoriamente, enquanto o Bigtable armazena linhas em ordem lexicográfica por chave de linha e deixa qualquer hash para o usuário.

A distribuição aleatória de chaves não é ideal para todos os padrões de acesso. Isso reduz o risco de intervalos de linhas quentes, mas torna os padrões de acesso que envolvem verificações que cruzam os limites de partição são caros e ineficientes. Essas verificações ilimitadas são comuns, especialmente para casos de uso que têm uma dimensão de tempo.

O processamento desse tipo de padrão de acesso (verificações que ultrapassam os limites de partição) requer um índice secundário no DynamoDB, mas o Bigtable o processa sem a necessidade de um índice secundário. Da mesma forma, no DynamoDB, as operações de consulta e verificação são limitadas a 1 MB de dados verificados, exigindo paginação além desse limite. O Bigtable não tem esse limite.

Mesmo com as chaves de partição distribuídas aleatoriamente, o DynamoDB ainda pode ter partições com uso intenso se uma chave de partição escolhida não distribuir de maneira uniforme o tráfego que afete negativamente a capacidade. Para resolver esse problema, o DynamoDB aconselha a fragmentação de gravação, dividindo as gravações aleatoriamente em vários valores de chave de partição lógica.

Para aplicar esse padrão de design, você precisa criar um número aleatório a partir de um conjunto fixo (por exemplo, de 1 a 10) e usar esse número como a chave de partição lógica. Como você está randomizando a chave de partição, as gravações na tabela são distribuídas de maneira uniforme por todos os valores da chave de partição.

O Bigtable se refere a esse procedimento como salgar a chave e pode ser uma maneira eficaz de evitar tablets quentes.

Controle de versão de dados

Cada célula do Bigtable tem um carimbo de data/hora, e o mais recente é sempre o valor padrão de qualquer coluna. Um caso de uso comum de carimbos de data/hora é o controle de versão, ou seja, a gravação de uma nova célula em uma coluna que é diferenciada das versões anteriores dos dados dessa linha e coluna pelo carimbo de data/hora.

O DynamoDB não tem esse conceito e requer designs de esquemas complexos para dar suporte ao controle de versões. Essa abordagem envolve a criação de duas cópias de cada item: uma cópia com um prefixo de número de versão zero, como v0_, no início da chave de classificação e outra com um prefixo de número de versão de um, como v1_. Sempre que o item for atualizado, use o próximo prefixo de versão mais alto na chave de classificação da versão atualizada e copie o conteúdo atualizado no item com o prefixo de versão zero. Isso garante que a versão mais recente de qualquer item possa ser localizada usando o prefixo zero. Essa estratégia exige não apenas a manutenção da lógica do aplicativo, mas também torna as gravações de dados muito caras e lentas, porque cada gravação requer uma leitura do valor anterior mais duas gravações.

Comparação entre transações de várias linhas e capacidade de linhas grandes

O Bigtable não oferece suporte a transações de várias linhas. No entanto, como ele permite armazenar linhas muito maiores do que os itens podem estar no DynamoDB, muitas vezes é possível conseguir a transacionalidade pretendida ao projetar seus esquemas para agrupar itens relevantes em uma chave de linha compartilhada. Para ver um exemplo dessa abordagem, consulte Padrão de design de tabela única.

Como armazenar valores grandes

Como um item do DynamoDB, análogo a uma linha do Bigtable, tem limite de 400 KB, o armazenamento de valores grandes requer a divisão do valor entre os itens ou o armazenamento em outras mídias como S3. Ambas as abordagens aumentam a complexidade do aplicativo. Por outro lado, uma célula do Bigtable pode armazenar até 100 MB, e uma linha do Bigtable pode armazenar até 256 MB.

Exemplos de conversão de esquema

Os exemplos nesta seção convertem esquemas do DynamoDB para o Bigtable considerando as principais diferenças de design de esquema.

Como migrar esquemas básicos

Os catálogos de produtos são um bom exemplo para demonstrar o padrão básico de chave-valor. Veja a seguir um esquema desse tipo no DynamoDB.

Chave primária Atributos
Chave de partição Chave de classificação Descrição Price Miniatura
chapéus fedoras#marcaA Feito com lã premium... 30 https://storage…
chapéus fedoras#marcaB Tela durável resistente à água feita para... 28 https://storage…
chapéus jornalista#marcaB Dê um charme vintage ao visual do seu dia a dia. 25 https://storage…
sapatos tênis#marcaA Saia com estilo e conforto com... 40 https://storage…
sapatos tênis#marcaB Elementos clássicos com materiais contemporâneos... 50 https://storage…

Nesta tabela, o mapeamento do DynamoDB para o Bigtable é simples: você converte a chave primária composta do DynamoDB em uma chave de linha composta do Bigtable. Você cria um grupo de colunas (SKU) que contém o mesmo conjunto de colunas.

SKU
Chave de linha Descrição Price Miniatura
chapéus#fedora#marcaA Feito com lã premium... 30 https://storage…
chapéus#fedora#marcaB Tela durável resistente à água feita para... 28 https://storage…
chapéus#boiadeiro#marcaB Dê um charme vintage ao visual do seu dia a dia. 25 https://storage…
sapatos#tênis#marcaA Saia com estilo e conforto com... 40 https://storage…
sapatos#tênis#marcaB Elementos clássicos com materiais contemporâneos... 50 https://storage…

Padrão de design de tabela única

Um único padrão de design de tabela reúne o que seriam várias tabelas de um banco de dados relacional em uma única tabela no DynamoDB. É possível usar a abordagem do exemplo anterior e duplicar esse esquema no estado em que se encontra no Bigtable. No entanto, é melhor resolver os problemas do esquema no processo.

Neste esquema, a chave de partição contém o ID exclusivo de um vídeo, o que ajuda a colocar todos os atributos relacionados ao vídeo para um acesso mais rápido. Devido às limitações de tamanho de item do DynamoDB, não é possível colocar um número ilimitado de comentários de texto livre em uma única linha. Portanto, uma chave de classificação com o padrão VideoComment#reverse-timestamp é usada para tornar cada comentário uma linha separada dentro da partição, classificada em ordem cronológica inversa.

Suponha que este vídeo tenha 500 comentários e o proprietário queira remover o vídeo. Isso significa que todos os comentários e atributos de vídeo também precisam ser excluídos. Para fazer isso no DynamoDB, você precisa verificar todas as chaves dentro dessa partição e emitir várias solicitações de exclusão, iterando cada uma delas. O DynamoDB oferece suporte a transações de várias linhas, mas essa solicitação de exclusão é muito grande para ser feita em uma única transação.

Chave primária Atributos
Chave de partição Chave de classificação UploadDate Formatos
0123 Vídeo 2023-09-10T15:21:48 {"480": "https://storage...", "720": "https://storage...", "1080p": "https://storage..."}
Comentário sobre o vídeo#98765481 Conteúdo
Eu gosto muito disso. Os efeitos especiais são incríveis.
Comentário sobre o vídeo#86751345 Conteúdo
Parece que há uma falha de áudio em 1:05.
VideoStatsLikes Count
3
VideoStatsViews Count
156
0124 Vídeo 2023-09-10T17:03:21 {"480": "https://storage…", "720": "https://storage…"}
Comentário do vídeo#97531849 Conteúdo
Compartilhei isto com todos os meus amigos.
Comentário sobre o vídeo#87616471 Conteúdo
O estilo me lembra de um diretor de filme, mas não consigo mexer nele.
VideoStats ViewCount
45

Modifique esse esquema durante a migração para simplificar o código e fazer solicitações de dados mais rápidas e baratas. As linhas do Bigtable têm uma capacidade muito maior do que os itens do DynamoDB e podem processar um grande número de comentários. Para lidar com um caso em que um vídeo recebe milhões de comentários, defina uma política de coleta de lixo para manter apenas um número fixo dos comentários mais recentes.

Como os contadores podem ser atualizados sem a sobrecarga de atualizar a linha inteira, você também não precisa dividi-los. Você também não precisa usar uma coluna UploadDate ou calcular um carimbo de data/hora reverso e tornar essa chave de classificação porque os carimbos de data/hora do Bigtable fornecem automaticamente os comentários ordenados cronologicamente de forma inversa. Isso simplifica significativamente o esquema e, se um vídeo for removido, a linha dele poderá ser removida de forma transacional, incluindo todos os comentários, em uma única solicitação.

Por fim, como as colunas no Bigtable são ordenadas lexicograficamente, como uma otimização, é possível renomeá-las de maneira a permitir uma verificação rápida, das propriedades de vídeo aos N comentários mais recentes, em uma única solicitação de leitura, que é o que você faria quando o vídeo fosse carregado. Mais tarde, você pode percorrer os outros comentários à medida que o espectador rola a tela.

Atributos
Chave de linha Formatos Marcações "Gostei" visualizações UserComments
0123 {"480": "https://storage...", "720": "https://storage...", "1080p": "https://storage..."} @2023-09-10T15:21:48 3 156 Eu gosto muito disso. Os efeitos especiais são incríveis. @ 2023-09-10T19:01:15
Parece que há um erro no áudio em 1:05. em 10-09-2023T16:30:42
0124 {"480": "https://storage...", "720":"https://storage..."} @2023-09-10T17:03:21 45 O estilo me lembra de um diretor de filme, mas não consigo mexer nele. @2023-10-12T07:08:51

Padrão de design da lista de adjacente

Considere uma versão um pouco diferente desse design, que o DynamoDB geralmente chama de padrão de design da lista de contingências.

Chave primária Atributos
Chave de partição Chave de classificação DateCreated Detalhes
Invoice-0123 Invoice-0123 2023-09-10T15:21:48 {"discount": 0,10,
"sales_tax_usd":"8",
"due_date":"2023-10-03.."}
Payment-0680 2023-09-10T15:21:40 {"amount_usd": 120, "bill_to":"João...",
"address":"123 Abc St..."}
Payment-0789 2023-09-10T15:21:31 {"amount_usd": 120, "bill_to":"Jane...",
"address":"13 Xyz St..."}
Invoice-0124 Invoice-0124 2023-09-09T10:11:28 {"discount": 0,20,
"sales_tax_usd":"11",
"due_date":"2023-10-03.."}
Payment-0327 2023-09-09T10:11:10 {"amount_usd": 180, "bill_to":"Bob...",
"address":"321 Cba St..."}
Payment-0275 2023-09-09T10:11:03 {"amount_usd": 70, "bill_to":"Kate...",
"address":"21 Zyx St..."}

Nesta tabela, as chaves de classificação não são baseadas no tempo, mas nos IDs de pagamento. Assim, é possível usar um padrão de colunas largas diferente e tornar esses IDs colunas separadas no Bigtable, com benefícios semelhantes ao exemplo anterior.

Fatura Pagamento
chave de linha Detalhes 0680 0789 (link em inglês)
0123 {"discount": 0,10,
"sales_tax_usd":"8",
"due_date":"2023-10-03.."}
em 10-09-2023T15:21:48
{"amount_usd": 120, "bill_to":"João...",
"address":"123 Abc St..."} @ 2023-09-10T15:21:40
{"amount_usd": 120, "bill_to":"Jane...",
"address":"13 Xyz St..."}
@ 2023-09-10T15:21:31
chave de linha Detalhes 0275 (link em inglês) 0327
0124 {"discount": 0,20,
"sales_tax_usd":"11",
"due_date":"2023-10-03.."}
em 09-09-2023T10:11:28
{"amount_usd": 70, "bill_to":"Kate...",
"address":"21 Zyx St..."}
@ 2023-09-09T10:11:03
{"amount_usd": 180, "bill_to":"Bob...",
"address":"321 Cba St..."}
@ 2023-09-09T10:11:10

Como mostrado nos exemplos anteriores, com o design de esquema correto, o modelo de colunas largas do Bigtable pode ser bastante poderoso e fornecer muitos casos de uso que exigiriam transações caras de várias linhas, indexação secundária ou comportamento em cascata na exclusão em outros bancos de dados.

A seguir