首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何在"Cloudfoundry“服务器启动上引用本地Kafka和动物园管理员配置

如何在"Cloudfoundry“服务器启动上引用本地Kafka和动物园管理员配置
EN

Stack Overflow用户
提问于 2018-02-12 01:19:10
回答 2查看 850关注 0票数 0

以下是我迄今为止在Server上成功完成的工作

  1. 我已经成功地在我的本地部署了SCDF服务器,并且我也使用了Kafka和Zoo门将配置参数,即

spring-cloud-dataflow-server-local-1.3.0.RELEASE.jar --spring.cloud.dataflow.applicationProperties.stream.spring.cloud.stream.kafka.binder.brokers=localhost:9092 --spring.cloud.dataflow.applicationProperties.stream.spring.cloud.stream.kafka.binder.zkNodes=localhost:2181 mymac$ java -jar

我能够创建我的溪流

  1. ingest = producer-app > :broker1
  2. filter = :broker1 > filter-app > :broker2

现在我需要帮助在PCFDev上做同样的事情

  1. 我的PCFDEv在运行
  2. 我必须将与本地kafka和动物园管理员参数一起部署到pcfDev,但是当我执行以下步骤时,它会给出一个错误

1.1)推送-f清单-scdf.yml-无启动-p -k 1500 m

这会运行good...no问题。但1.2

cf启动数据流-服务器--spring.cloud.dataflow.applicationProperties.stream.spring.cloud.stream.kafka.binder.brokers=host.pcfdev.io:9092 --spring.cloud.dataflow.applicationProperties.stream.spring.cloud.stream.kafka.binder.zkNodes=host.pcfdev.io:2181

给我一个错误:--

`spring.cloud.dataflow.applicationProperties.stream.spring.cloud.stream.kafka.binder.brokers'错误用法:未知标志

下面是我的清单-scdf.yml文件

代码语言:javascript
复制
---
instances: 1                        
memory: 2048M                         
applications:                         
  - name: dataflow-server                   
    host: dataflow-server                  
    services:                       
      - redis                      
      - rabbit                         
    env:                          
      SPRING_CLOUD_DEPLOYER_CLOUDFOUNDRY_URL: https://api.local.pcfdev.io
      SPRING_CLOUD_DEPLOYER_CLOUDFOUNDRY_ORG: pcfdev-org
      SPRING_CLOUD_DEPLOYER_CLOUDFOUNDRY_SPACE: pcfdev-space
      SPRING_CLOUD_DEPLOYER_CLOUDFOUNDRY_DOMAIN: local.pcfdev.io
      SPRING_CLOUD_DEPLOYER_CLOUDFOUNDRY_USERNAME: admin
      SPRING_CLOUD_DEPLOYER_CLOUDFOUNDRY_PASSWORD: admin
      SPRING_CLOUD_DEPLOYER_CLOUDFOUNDRY_SKIP_SSL_VALIDATION: true
      SPRING_CLOUD_DEPLOYER_CLOUDFOUNDRY_STREAM_SERVICES: rabbit
      MAVEN_REMOTE_REPOSITORIES_REPO1_URL: https://repo.spring.io/libs-snapshot
      SPRING_CLOUD_DEPLOYER_CLOUDFOUNDRY_DISK: 512
      SPRING_CLOUD_DEPLOYER_CLOUDFOUNDRY_STREAM_BUILDPACK: java_buildpack
      spring.cloud.deployer.cloudfoundry.stream.memory: 400         
      spring.cloud.dataflow.features.tasks-enabled: true            
      spring.cloud.dataflow.features.streams-enabled: true        

请帮帮我。谢谢。

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2018-02-12 16:00:09

向PCF中的流应用程序提供Kafka凭证的选项很少。

1.卡夫卡杯

此选项允许您为外部Kafka服务创建CUPs。在部署流时,您可以按照文档中的描述向每个应用程序分别提供坐标,也可以将它们作为全局性质提供给由SCDF服务器部署的所有流应用程序。

2.内联属性

您也可以在部署流时直接提供主机/端口,而不是从CUPs中提取。同样,这也可以在全球范围内应用。

stream deploy myTest --properties "app.*.spring.cloud.stream.kafka.binder.brokers=<HOST>:9092,app.*.spring.cloud.stream.kafka.binder.zkNodes=<HOST>:2181

注意:对于流应用程序,主机必须是可访问的;或者说,它不能继续连接本地主机,并且可能会失败,因为应用程序在VM中运行。

票数 2
EN

Stack Overflow用户

发布于 2018-02-12 04:38:19

您看到的错误来自CLI,它解释了您作为标志提供给cf start命令并失败的那些变量(我假设是环境)。

您可以在manifest.yml中提供它们,也可以使用CLI的cf set-env命令手动设置它们的值,方法如下:

代码语言:javascript
复制
cf set-env dataflow-server spring.cloud.dataflow.applicationProperties.stream.spring.cloud.stream.kafka.binder.brokers host.pcfdev.io:9092

cf set-env dataflow-server spring.cloud.dataflow.applicationProperties.stream.spring.cloud.stream.kafka.binder.zkNodes host.pcfdev.io:2181

在您设置好它们之后,应该在运行cf start dataflow-server时将它们捕获。

相关CLI文档:http://cli.cloudfoundry.org/en-US/cf/set-env.html

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/48738316

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档