首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Azure数据库执行失败- CLOUD_PROVIDER_LAUNCH_FAILURE

Azure数据库执行失败- CLOUD_PROVIDER_LAUNCH_FAILURE
EN

Stack Overflow用户
提问于 2022-02-07 11:48:29
回答 2查看 758关注 0票数 1

我使用Azure DataFactory来摄取数据,并通过ADF的笔记本活动使用Azure笔记本。

该笔记本使用了一个现有的标准DS3_V2实例池(2-5个节点自动计算)和7.3LSTSParkRuntime版本。多个团队对各自的数据管道使用相同的Azure订阅。

在ADF管道执行过程中,我经常面临笔记本活动失败,下面是错误消息

代码语言:javascript
复制
{
  "reason": {
    "code": "CLOUD_PROVIDER_LAUNCH_FAILURE",
    "type": "CLOUD_FAILURE",
    "parameters": {
      "azure_error_code": "SubnetIsFull",
      "azure_error_message": "Subnet /subscriptions/<Subscription>/resourceGroups/<RG>/providers/Microsoft.Network/virtualNetworks/<VN>/subnets/<subnet> with address prefix 10.237.35.128/26 does not have enough capacity for 2 IP addresses."
    }
  }
}

有人能解释一下这个错误是什么吗?我怎样才能减少这个错误的发生?(我发现的文件不具解释性)

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2022-02-07 13:28:52

看起来您的数据块是在VNET中创建的,请参阅此链接或此链接。完成此操作后,databricks实例将在此VNET中的一个子网中创建。似乎在触发的时候,子网中的所有IP都已经被利用了。您不能广告不应该扩展IP空间。请不要试图更改现有的VNET配置,因为这将影响您的databricks集群。您有以下选项。

  1. 检查何时实例化较少的databricks实例,并在此期间调度ADF。您应该考虑跨时间分发执行,这样我们就不会试图在子网中的现有in上达到峰值。
  2. 请您的IT部门创建一个新的VNET和子网,并在此VNET中创建一个新的Databricks集群。
票数 1
EN

Stack Overflow用户

发布于 2022-02-07 13:26:13

问题产生于这样一个事实:当您的工作区被创建时,网络和子网大小没有得到正确的规划(请参阅文档)。因此,当您试图启动集群时,给定的子网中没有足够的IP地址,并且出现了此错误。

不幸的是,现在还不可能扩展网络/子网大小,所以如果您需要一个更大的网络,那么您需要部署一个新的工作区并迁移到其中。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/71018067

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档