Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Clusters de nó único são clusters do Dataproc com apenas um nó. Esse nó
único atua como mestre e worker do cluster do
Dataproc. Embora os clusters
de nó único tenham apenas um nó, a maioria dos conceitos e recursos do Dataproc
ainda se aplicam, exceto os listados abaixo.
Há várias situações em que os clusters de nó único do Dataproc podem
ser úteis, incluindo:
tentativas com novas versões do Spark e Hadoop ou outros componentes de código aberto;
criação de demonstrações de prova do conceito (PoC, da sigla em inglês);
ciência de dados leves;
processamento de dados não críticos em pequena escala;
educação relacionada ao ecossistema Spark e Hadoop.
Semântica de cluster de node único
A semântica a seguir se aplica aos clusters de nó único do Dataproc:
Os clusters de nó único são configurados da mesma maneira que os clusters de vários nós do
Dataproc e incluem serviços como HDFS e YARN.
Os clusters de node único mostram 0 workers, já que age como mestre e de trabalho.
Os clusters de nó único recebem nomes de host que seguem o padrão clustername-m.
Você pode usar esse nome de host para rodar SSH ou conectar à
IU da Web no nó.
Não é possível fazer upgrade dos clusters de node único para clusters de vários nodes. Uma vez criados, os clusters de node único são restritos a um node. Da mesma forma, os clusters de vários nodes não podem ser reduzidos para se tornar clusters de node único.
Limitações
Não é recomendável usar clusters de nó único no processamento paralelo de dados em grande escala. Se você exceder os recursos em um cluster de nó único, um cluster de vários nós do
Dataproc é recomendado.
Os clusters de nó único não têm alta disponibilidade porque há apenas um nó no cluster.
É possível criar um cluster de nó único do Dataproc usando a
ferramenta de linha de comando gcloud. Para criar um cluster de nó único, transmita a flag
--single-node para o
comando
gcloud dataproc clusters create.
Crie um cluster de nó único usando a
API REST do Dataproc e uma
solicitação
clusters.create. Ao fazer essa solicitação, realize estas ações:
Adicione a propriedade "dataproc:dataproc.allow.zero.workers":"true" ao
SoftwareConfig
da solicitação do cluster.
Não envie valores para workerConfig e secondaryWorkerConfig
(consulte ClusterConfig).
Console
É possível criar um cluster de nó único selecionando "Nó único
(1 mestre, 0 worker)" na seção "Tipo de cluster" do
painel "Configurar cluster" na página
Criar um cluster
do Dataproc.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-09-04 UTC."],[[["\u003cp\u003eSingle node Dataproc clusters utilize a single node as both the master and worker, simplifying cluster management for certain use cases.\u003c/p\u003e\n"],["\u003cp\u003eThese clusters are useful for tasks like testing new Spark/Hadoop versions, creating proof-of-concept demos, lightweight data science, small-scale data processing, and educational purposes.\u003c/p\u003e\n"],["\u003cp\u003eWhile most Dataproc features apply, single node clusters lack high-availability and do not support preemptible VMs or scaling to multi-node setups.\u003c/p\u003e\n"],["\u003cp\u003eSingle node clusters can be created using the \u003ccode\u003egcloud\u003c/code\u003e command-line tool with the \u003ccode\u003e--single-node\u003c/code\u003e flag, the Dataproc REST API with specific configurations, or the Google Cloud console by choosing the "Single Node" cluster type.\u003c/p\u003e\n"],["\u003cp\u003eSingle node clusters are not suitable for large-scale data processing, as they are limited by the resources of a single node.\u003c/p\u003e\n"]]],[],null,["Single node clusters are Dataproc clusters with only one node. This single\nnode acts as the master and worker for your\nDataproc cluster. While single\nnode clusters only have one node, most Dataproc concepts and features\nstill apply, except those [listed below](#limitations).\n\nThere are a number of situations where single node Dataproc clusters can\nbe useful, including:\n\n- Trying out new versions of Spark and Hadoop or other open source components\n- Building proof-of-concept (PoC) demonstrations\n- Lightweight data science\n- Small-scale non-critical data processing\n- Education related to the Spark and Hadoop ecosystem\n\nSingle node cluster semantics\n\nThe following semantics apply to single node Dataproc clusters:\n\n- Single node clusters are configured the same as multi node Dataproc clusters, and include services such as HDFS and YARN.\n- Single node clusters report as master nodes for [initialization actions](/dataproc/docs/concepts/configuring-clusters/init-actions).\n- Single node clusters show 0 workers since the single node acts as both master and worker.\n- Single node clusters are given hostnames that follow the pattern `clustername-m`. You can use this hostname to SSH into or connect to a [web UI](/dataproc/docs/concepts/accessing/cluster-web-interfaces) on the node.\n- Single node clusters cannot be upgraded to multi node clusters. Once created, single node clusters are restricted to one node. Similarly, multi node clusters cannot be scaled down to single node clusters.\n\nLimitations\n\n- Single node clusters are not recommended for large-scale parallel data\n processing. If you exceed the resources on a single node cluster, a multi node\n Dataproc cluster is recommended.\n\n- Single node clusters are not available with\n [high-availability](/dataproc/docs/concepts/configuring-clusters/high-availability)\n since there is only one node in the cluster.\n\n- Single node clusters cannot use [preemptible VMs](/dataproc/docs/concepts/compute/preemptible-vms).\n\nCreate a single node cluster \n\ngcloud command\n\n\nYou can create a single node Dataproc cluster using the `gcloud`\ncommand-line tool. To create a single node cluster, pass the\n`--single-node` flag to the\n[`gcloud dataproc clusters create`](/sdk/gcloud/reference/dataproc/clusters/create)\ncommand. \n\n```\ngcloud dataproc clusters create cluster-name \\\n --region=region \\\n --single-node \\\n ... other args\n```\n\n\u003cbr /\u003e\n\nREST API\n\n\nYou can create a single node cluster through the\n[Dataproc REST API](/dataproc/docs/reference/rest) using a\n[clusters.create](/dataproc/docs/reference/rest/v1/projects.regions.clusters/create)\nrequest. When making this request, you must:\n\n1. Add the property `\"dataproc:dataproc.allow.zero.workers\":\"true\"` to the [SoftwareConfig](/dataproc/docs/reference/rest/v1/ClusterConfig#SoftwareConfig) of the cluster request.\n2. Don't submit values for `workerConfig` and `secondaryWorkerConfig` (see [ClusterConfig](/dataproc/docs/reference/rest/v1/ClusterConfig)).\n\n| To examine and construct the JSON body of a Dataproc API clusters create request, open the Dataproc [Create a cluster](https://console.cloud.google.com/dataproc/clustersAdd) page, fill in the applicable fields, then click the **Equivalent REST** button at the bottom of the left panel to view the POST request with the completed JSON request body.\n\n\u003cbr /\u003e\n\nConsole\n\n\nYou can create a single node cluster by selecting \"Single Node\n(1 master, 0 workers)\" on the Cluster type section of\nthe Set up cluster panel on the Dataproc\n[Create a cluster](https://console.cloud.google.com/dataproc/clustersAdd)\npage."]]