首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏路过君BLOG from CSDN

    EXTJS7 combobox 下拉加载数据源

    Trigger.js onClick: function(e) { var me = this, handler = !me.getDisabled() && me.getHandler(), field = me.getField(), focusEl; ... // handler = 'onExpandTap' 触发combobox展开按钮点击处理函数 if (handler) { Ext.callback(handler, me.get

    1.4K10发布于 2020-06-19
  • 来自专栏开源部署

    CentOS 7安装Grafana及配置zabbix数据源

    支持多数据源InfluxDB,Prometheus,Zabbix,Elasticsearch,CloudWatch,等。用于数据的展示。 3). 通知提醒,达到目标制定的阀值,进行报警。 4). 混合展示,可在同一个张图表中,展示不同数据源的数据。适应灵活多变的复杂业务场景。 5). 多租户,可以通过多组织构造,分开隔离。保证多机构下,只看到本机构的监控系统数据。 Grafana安装 部署环境:CentOS7 下载granafa wget https://dl.grafana.com/oss/release/grafana-6.4.4-1.x86_64.rpm 安装 Grafana对接zabbix数据源。 拉倒最下面,找到 “Find more data source plugins on grafana.com”。 配置zabbix数据源,回到主页,点击“add data source”,找到“zabbix”,配置zabbix。 单击“Save & Test”。

    2.2K50编辑于 2022-08-08
  • 来自专栏架构技术

    Solr7使用Oracle数据源导入+中文分词

    这里配增量查询语句,${dataimporter.last_index_time}表示上次更新时间--> </entity> </document> </dataConfig> 7. 回到左侧菜单,选择Query,点击Execute Query,如果右侧查询出数据,恭喜你,你已经配置好了; 可根据第八步继续添加自己想要的字段,重复9 10步骤; 二、中文分词 Solr7之前好像大部分使用的是 IK中文分词器,但是我试了好几个方法,都没有成功,而且跟网上经验描述的目录结构也很多不一样,比如大部分说要修改Schema.xml文件,可是后来发现Solr7其实已经不使用Schema了,而是使用的Managed-Schema Solr7中已经不再支持defaultSearchField默认搜索字段了。需要设置默认搜索字段需要在solrconfig.xml中配置, ?

    1K20发布于 2018-12-11
  • 来自专栏东风微鸣技术博客

    Grafana系列-统一展示-7-ElasticSearch数据源

    系列文章 •Grafana 系列文章[1] ElasticSearch 数据源 Grafana内置了对Elasticsearch的支持。 配置 ES 数据源 关键的几项配置如下: •URL: 设置你的Elasticsearch服务器的HTTP协议、IP和端口。 field name: @timestamp 日志配置 你可以选择配置两个Logs参数: •Message field name•Level field name 以确定在Explore中可视化日志时,数据源对日志信息和日志级别使用哪些字段 示例 ES 数据源配置 最终 ES 数据源配置示例如下: ES Data source settings EOF References [1] Grafana 系列文章: https://ewhisper.cn

    81620编辑于 2023-09-01
  • 来自专栏全栈程序员必看

    hibernate 在tomcat7.X 下配置mysql数据源「建议收藏」

    今天刚看到hibernate,发如今hibernate配置数据源时网上的资料都太久远了,一般以tomcat 5 版本号下的配置居多。 而tomcat 7下的配置略有变化,新手找资料困难,可能会略受打击,故整理资料与大家共享。也可作备忘之用。若有不当之处。还请指教! 可是tomcat 7 已经不用加入这些jar文件了。由于tomcat 7的lib包以下已经集成了这些库。 另外,注意数据源仅仅有在web项目中才干够使用。

    73430编辑于 2022-07-07
  • 来自专栏不温卜火

    Spark SQL 快速入门系列(7) | SparkSQL如何实现与多数据源交互

    如果不想出现错误,可以使用overwrite(覆盖) scala> df.write.format("json").mode("overwrite").save("./0804json") 7. append 1.2 保存到本地   默认数据源是parquet, 我们也可以通过使用:spark.sql.sources.default这个属性来设置默认的数据源. val usersDF = spark.read.load 手动指定选项   也可以手动给数据源指定一些额外的选项. 数据源应该用全名称来指定, 但是对一些内置的数据源也可以使用短名称:json, parquet, jdbc, orc, libsvm, csv, text val peopleDF = spark.read.format ) import spark.implicits._ val rdd: RDD[User1] = spark.sparkContext.parallelize(Array(User1(7,

    1.6K20发布于 2020-10-28
  • 来自专栏kk大数据

    Flink DataStream 内置数据源和外部数据源

    1 内置数据源 (1)文件数据源 在 StreamExecutionEnvironment 中,可以使用 readTextFile 方法直接读取文本文件,也可以使用 readFile 方法通过指定文件 env.socketTextStream("localhost",9999) 在 unix 环境下,可以执行 nc -lk 9999 命令,启动端口,在客户端中输入数据,flink 就能接收到数据了 (3)集合数据源 2 外部数据源 前面的数据源类型都是非常基础的数据接入方式,例如从文件,Socket 端口中接入数据,其本质是实现了不同的 SourceFunction,Flink 将其封装成高级的 API,减少了用户的使用成本 Flink 中已经实现了大多数主流的数据源连接器,但是 Flink 的整体架构非常开放,用户可以自定义连接器,以满足不同数据源的接入需求。 SourceFunction 定义单个线程的数据接入器,也可以通过实现 ParallelSourceFunction 接口 或者继承 RichParallelSourceFunction 类定义并发数据源接入器

    3.2K00发布于 2019-10-10
  • 来自专栏MasiMaro 的技术博文

    OLEDB数据源

    数据源对象代表数据库的一个连接,是需要创建的第一个对象。 而数据源对象主要用于配置数据库连接的相关属性如连接数据库的用户名密码等等 数据源主要完成的功能如下: 进行数据库身份认证 为每个连接准备对应的资源,如对应的数据缓冲,网络连接资源 设置连接属性,给访问者何种权限 接口的SetProperties函数来设置对应的数据源对象的接口。 使用IDBPromptInitialize接口来创建数据源对象 上述方法是依托于标准的COM,虽然也成功创建的数据源连接,但是无法在标准的com之上进行更多的初始化操作,导致了有些特定的高级功能无法使用 IDBPromptInitialize创建时会弹出一个数据源选择的对话框,供用户选择相关配置信息(数据源/用户名/密码等)然后根据这些配置自动生成连接对象。

    1.1K20发布于 2018-08-31
  • springboot整合多数据源的配置以及动态切换数据源,注解切换数据源

    设置数据源:setDataSource方法用于将数据源名称设置到当前线程的上下文中。通过调用CONTEXT_HOLDER.set(dataSource),将数据源名称存储在当前线程中。 获取数据源:getDataSource方法用于从当前线程的上下文中获取数据源名称。通过调用CONTEXT_HOLDER.get(),可以获取当前线程的数据源名称。 清除数据源:clearDataSourceType方法用于清除当前线程中存储的数据源信息。通过调用CONTEXT_HOLDER.remove(),可以清除当前线程中的数据源信息。 String PRIMARY = "primaryDataSource"; public static final String SECOND = "secondDataSource"; } 7️⃣ ; /** * description: 根据当前线程中的数据源上下文获取对应的数据源

    3.1K10编辑于 2025-05-31
  • 来自专栏java编程那点事

    JDBC数据源

    那么此时,用Spark SQL来通过JDBC数据源,加载MySQL中的数据,然后通过各种算子进行处理,是最好的选择。因为Spark是分布式的计算框架,对于1000万数据,肯定是分布式处理的。

    85720编辑于 2023-02-25
  • 【详解】SpringBoot动态数据源数据源自动切换

    SpringBoot动态数据源数据源自动切换在现代企业级应用中,为了提高系统的可维护性和扩展性,多数据源的配置和使用变得越来越常见。 contextHolder.get(); } public static void clearDataSource() { contextHolder.remove(); }}7. public void restoreDataSource(JoinPoint point) { DataSourceContextHolder.clearDataSource(); }}7. 创建数据源配置类创建一个配置类来定义和配置多个数据源。 Retention(RetentionPolicy.RUNTIME)@Documentedpublic @interface DataSource { String value() default "";}7.

    59310编辑于 2025-10-22
  • 来自专栏灵墨AI探索室

    从单数据源到多数据源的探讨

    今天我想简单地分享一下如何将一个老项目从单数据源切换为多数据源的过程。 我的主要任务是将原本使用单一数据源的架构,升级为支持多数据源的架构。 使用现成的spring-security,注入数据源后,直接查询各种权限信息。国际化配置使用到了数据源信息。目前就这几种,因为项目使用的是jndi的方式注入,所以对于多数据源来说也有一些困难。 不过我的大概思路就是将数据源注入个默认数据源,使用动态key的方式切换数据源。 总的来说,将传统单数据源架构迁移到多数据源架构并不简单,但通过合理的模块梳理和逐步推进,整个过程可以得到有效实施。

    40420编辑于 2025-01-17
  • 来自专栏代码人生

    Spring多数据源配置系列(一)——多数据源配置

    luo4105/article/details/77720679 资源 Git地址:https://code.csdn.net/luo4105/study_multipledatasources Spring多数据源 Spring中,可以通过AbstractRoutingDataSource来实现多数据源管理。 在Spring注册多个数据源 2. 新建类继承AbstractRoutingDataSource,并配置 3. 给TheadLocal赋值 这种技术现在已经过时,现在大部分使用数据库代理。 ,这里我们需要新建一个类继承它,并重写determineCurrentLookupKey方法,这个方法是多数据源的调用的逻辑部分,它返回一个多数据源的key,根据key找到对应的DataSource。 在spring的配置DynamicDataSource时,需要指定targetDataSources,这就是目标数据源集,是一个map,key就是通过targetDataSources获得对应的数据源

    2.4K20发布于 2019-10-30
  • 来自专栏allsmallpi博客

    Spring Boot + Mybatis多数据源和动态数据源配置

    转载自 http://blog.csdn.net/neosmith/article/details/61202084 网上的文章基本上都是只有多数据源或只有动态数据源,而最近的项目需要同时使用两种方式 *属性并自动配置单数据源。 动态数据源 使用动态数据源的初衷,是能在应用层做到读写分离,即在程序代码中控制不同的查询方法去连接不同的库。 除了这种方法以外,数据库中间件也是个不错的选择,它的优点是数据库集群对应用来说只暴露为单库,不需要切换数据源的代码逻辑。 我们通过自定义注解 + AOP的方式实现数据源动态切换。 : /** * 动态数据源: 通过AOP在不同数据源之间动态切换 * @return */ @Bean(name = "dynamicDS1") public

    1.7K10发布于 2021-02-25
  • 来自专栏快乐阿超

    mp数据源加密

    2714d208797f4a0c ] url:[ mpw:5GiethoxEEWPFCVioU2KC8YpgkWJKV73Onbro3IXzMLoO73twkBNSV0fmvCSUof2Ow2LVcRT+kdi29edE7pIq7L6s2

    1.1K10编辑于 2022-08-16
  • 来自专栏java编程那点事

    Hive数据源实战

    org.apache.spark.sql.DataFrame; import org.apache.spark.sql.Row; import org.apache.spark.sql.hive.HiveContext; /** * Hive数据源

    98120编辑于 2023-02-25
  • 来自专栏全栈程序员必看

    bonecp使用数据源

    --配置数据源 --> <bean id="dataSource" class="org.springframework.jdbc.datasource.LazyConnectionDataSourceProxy

    68320编辑于 2022-07-06
  • 来自专栏java编程那点事

    JDBC数据源实战

    org.apache.spark.sql.types.StructField; import org.apache.spark.sql.types.StructType; import scala.Tuple2; /** * JDBC数据源 JavaSparkContext sc = new JavaSparkContext(conf); SQLContext sqlContext = new SQLContext(sc); ​​// 总结一下 ​​// jdbc数据源

    62510编辑于 2023-02-25
  • 来自专栏一个执拗的后端搬砖工

    springboot(2)--数据源

    数据源是第三方机构基于jdbc规范实现的一套数据库操作功能,我们可以在 其基础上非常方便地实现数据查询和更新,而不必关心其底层实现,让我们把更多的经历投入到业务实现。 常见数据源(连接池)有druid,tomcat,dbcp,c3p0和hikari等,此篇我们就基于流行的数据源实现springboot对数据库的操作。 org.apache.tomcat.jdbc.pool.DataSource(); return ds; } 4.增加配置暴露JdbcTemplate jdbcTemplate数据源切换成 这里的DataSource确实已经变成了tomcat的数据源。然后浏览器输入localhost:8080/hello看到如下结果: ? 总结 我们基于springboot实现了各种常见数据源的使用,性能最好的就是druid和HikariCP连接池,虽然后者号称比druid性能好,但是基于可靠性验证,推荐使用druid,也希望通过此篇给大家在

    89320发布于 2020-11-19
  • 来自专栏兮动人的博客

    Spring配置数据源

    数据源(连接池)的作用 数据源(连接池)是提高程序性能如出现的 事先实例化数据源,初始化部分连接资源 使用连接资源时从数据源中获取 使用完毕后将连接资源归还给数据源 常见的数据源(连接池):DBCP、C3P0 数据源的开发步骤 导入数据源的坐标和数据库驱动坐标 创建数据源对象 设置数据源的基本连接数据 使用数据源获取连接资源和归还连接资源 3. 数据源的手动创建 导入c3p0和druid的坐标 <! dependency> 创建C3P0连接池 @Test //测试手动创建 c3p0 连接池 public void test1() throws Exception { //创建数据源 在这里插入图片描述] 创建Druid连接池 @Test //测试手动创建 druid 连接池 public void test2() throws Exception { //创建数据源 @Test //测试Spring容器产生数据源对象 public void test4() throws Exception { ApplicationContext

    1.2K00发布于 2021-11-05
领券