首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏xingoo, 一个梦想做发明家的程序员

    Tomcat 6 JNDI数据源详解

    那么本篇中JNDI数据源就是通过配置一个数据源的资源,在应用中通过该名称获取到数据库连接,进行操作。这样就省去了每次连接数据库的步骤。 连接池原理   连接池的概念,应该都不陌生了。 而tomcat配置数据源可以在tomcat容器启动时就初始化连接池,停止tomcat时才释放资源,其部署的应用可以根据JNDI的声明,在应用中共享使用该资源。   

    1.2K90发布于 2018-01-17
  • 来自专栏iSharkFly

    Confluence 6 升级 Confluence 使用数据源

    编辑 <installation-directory>/conf/server.xml 同时添加你的数据源资源。 编辑 <installation-directory>/confluence/WEB-INF/web.xml 到配置 Confluence 使用数据源

    97430发布于 2019-01-31
  • 来自专栏iSharkFly

    Confluence 6数据源连接中启用校验查询

    编辑 <installation-directory>/conf/server.xml 文件(或者基于在那里你配置你的数据源)。 针对你的额数据源找到 Resource 元素,然后添加 "validationQuery" 参数,下面的配置是针对 PostgreSQL 数据库的,其他的数据库的配置也类似。

    53350发布于 2019-01-31
  • 来自专栏iSharkFly

    Confluence 6 配置一个数据源连接 原

    这个指南指导你如何配置使用 JNDI 数据源来连接到你的数据库。使用这个类型的连接,Confluence 将会询问应用服务器(Tomcat)中你配置的连接信息。

    57230发布于 2019-01-31
  • 来自专栏CodeGuide | 程序员编码指南

    《Mybatis 手撸专栏》第6章:数据源池化技术实现

    二、目标 在上一章节我们解析了 XML 中数据源配置信息,并使用 Druid 创建数据源完成数据库的操作。 如图 6-1 所示 图 6-1 池化数据源设计 通过提供统一的连接池中心,存放数据源链接,并根据配置按照请求获取链接的操作,创建连接池的数据源链接数量。 ,如图 6-2 所示 图 6-2 池化数据源核心类关系 在 Mybatis 数据源的实现中,包括两部分分为无池化的 UnpooledDataSource 实现类和有池化的 PooledDataSource 和 newInstance 的方式创建了数据源链接操作。 这两个数据源也就是我们本章节自己实现的数据源

    75520编辑于 2022-06-13
  • 来自专栏知无不言 - 畅所欲言

    Mybatis 手撸专栏|第6章:数据源池化技术实现

    引言 欢迎来到《Mybatis 手撸专栏》的第6章!在本章中,我们将深入探讨数据源池化技术的实现方式。数据源池化是一种常用的技术,通过对数据库连接进行管理和复用,提高了数据库的性能和资源利用率。 在本文中,我们将介绍数据源池化的概念,并详细讲解如何使用 Mybatis 实现数据源池化。我会提供详细的代码示例,让你能够更好地理解和应用这些知识。让我们开始吧! 什么是数据源池化? 使用 C3P0 实现数据源池化 C3P0 是一个开源的 JDBC 连接池库,它提供了丰富的配置选项和监控功能,非常适合用于实现数据源池化。 下面是一个使用 C3P0 实现数据源池化的示例: <! 使用 Druid 实现数据源池化 Druid 是一个由阿里巴巴开源的数据库连接池库,它不仅提供了数据源池化的功能,还提供了监控和统计功能,非常适合用于实现高性能的数据源池化。 通过以上配置,我们成功使用 Druid 实现了数据源池化。 总结 通过本章的学习,我们了解了数据源池化技术的概念和实现方式。

    36740编辑于 2023-11-07
  • 来自专栏iSharkFly

    Confluence 6 新 Confluence 安装配置一个数据源连接

    如果在你的 Tomcat 中配置了数据源,并且Confluence 设置指南在安装的时候检测到这个配置的时候,配置数据源的选项将会提供给你进行配置。入股你希望使用数据源,请参考下面的配置。 1. 在 Tomcat 中配置数据源 下一步,将数据源配置到 Tomcat 中。 如果你使用了不支持的数据库驱动或者自定义的 JDBC 驱动,或者你数据源中的  driverClassName,协作写编辑将会失败。请参考 Database JDBC Drivers 页面中的内容。 重启 Confluence 然后继续设置进程 现在你的数据源已经成功配置了,你可以继续你 Confluence 的安装进程了。 输入你数据源的 JNDI 名称,例如,java:comp/env/jdbc/confluence 针对弹出的内容来完成你 Confluence 的设置。

    1.4K60发布于 2019-01-31
  • 来自专栏kk大数据

    Flink DataStream 内置数据源和外部数据源

    1 内置数据源 (1)文件数据源 在 StreamExecutionEnvironment 中,可以使用 readTextFile 方法直接读取文本文件,也可以使用 readFile 方法通过指定文件 env.socketTextStream("localhost",9999) 在 unix 环境下,可以执行 nc -lk 9999 命令,启动端口,在客户端中输入数据,flink 就能接收到数据了 (3)集合数据源 2 外部数据源 前面的数据源类型都是非常基础的数据接入方式,例如从文件,Socket 端口中接入数据,其本质是实现了不同的 SourceFunction,Flink 将其封装成高级的 API,减少了用户的使用成本 Flink 中已经实现了大多数主流的数据源连接器,但是 Flink 的整体架构非常开放,用户可以自定义连接器,以满足不同数据源的接入需求。 SourceFunction 定义单个线程的数据接入器,也可以通过实现 ParallelSourceFunction 接口 或者继承 RichParallelSourceFunction 类定义并发数据源接入器

    3.2K00发布于 2019-10-10
  • 来自专栏菩提树下的杨过

    FlashFlex学习笔记(6):制作基于xml数据源的flv视频播放器

    2.加载xml数据源 xml数据源格式如下: <?xml version="1.0" encoding="utf-8"?

    1.3K50发布于 2018-01-23
  • 来自专栏MasiMaro 的技术博文

    OLEDB数据源

    数据源对象代表数据库的一个连接,是需要创建的第一个对象。 而数据源对象主要用于配置数据库连接的相关属性如连接数据库的用户名密码等等 数据源主要完成的功能如下: 进行数据库身份认证 为每个连接准备对应的资源,如对应的数据缓冲,网络连接资源 设置连接属性,给访问者何种权限 接口的SetProperties函数来设置对应的数据源对象的接口。 使用IDBPromptInitialize接口来创建数据源对象 上述方法是依托于标准的COM,虽然也成功创建的数据源连接,但是无法在标准的com之上进行更多的初始化操作,导致了有些特定的高级功能无法使用 IDBPromptInitialize创建时会弹出一个数据源选择的对话框,供用户选择相关配置信息(数据源/用户名/密码等)然后根据这些配置自动生成连接对象。

    1.2K20发布于 2018-08-31
  • springboot整合多数据源的配置以及动态切换数据源,注解切换数据源

    在许多应用程序中,可能需要使用多个数据库或数据源来处理不同的业务需求。Spring Boot提供了简便的方式来配置和使用多数据源,使开发人员能够轻松处理多个数据库连接。 设置数据源:setDataSource方法用于将数据源名称设置到当前线程的上下文中。通过调用CONTEXT_HOLDER.set(dataSource),将数据源名称存储在当前线程中。 获取数据源:getDataSource方法用于从当前线程的上下文中获取数据源名称。通过调用CONTEXT_HOLDER.get(),可以获取当前线程的数据源名称。 清除数据源:clearDataSourceType方法用于清除当前线程中存储的数据源信息。通过调用CONTEXT_HOLDER.remove(),可以清除当前线程中的数据源信息。 */ public static void clearDataSourceType() { CONTEXT_HOLDER.remove(); } } 6️⃣

    3.1K10编辑于 2025-05-31
  • 来自专栏java编程那点事

    JDBC数据源

    那么此时,用Spark SQL来通过JDBC数据源,加载MySQL中的数据,然后通过各种算子进行处理,是最好的选择。因为Spark是分布式的计算框架,对于1000万数据,肯定是分布式处理的。

    86220编辑于 2023-02-25
  • 【详解】SpringBoot动态数据源数据源自动切换

    SpringBoot动态数据源数据源自动切换在现代企业级应用中,为了提高系统的可维护性和扩展性,多数据源的配置和使用变得越来越常见。 dynamicDataSource.setTargetDataSources(dataSourceMap); return dynamicDataSource; }}6. contextHolder.get(); } public static void clearDataSource() { contextHolder.remove(); }}6. 创建数据源配置类创建一个配置类来定义和配置多个数据源。 contextHolder.get(); } public static void clearDataSource() { contextHolder.remove(); }}6.

    69610编辑于 2025-10-22
  • 来自专栏灵墨AI探索室

    从单数据源到多数据源的探讨

    今天我想简单地分享一下如何将一个老项目从单数据源切换为多数据源的过程。 我的主要任务是将原本使用单一数据源的架构,升级为支持多数据源的架构。 使用现成的spring-security,注入数据源后,直接查询各种权限信息。国际化配置使用到了数据源信息。目前就这几种,因为项目使用的是jndi的方式注入,所以对于多数据源来说也有一些困难。 不过我的大概思路就是将数据源注入个默认数据源,使用动态key的方式切换数据源。 总的来说,将传统单数据源架构迁移到多数据源架构并不简单,但通过合理的模块梳理和逐步推进,整个过程可以得到有效实施。

    42720编辑于 2025-01-17
  • 来自专栏allsmallpi博客

    Spring Boot + Mybatis多数据源和动态数据源配置

    转载自 http://blog.csdn.net/neosmith/article/details/61202084 网上的文章基本上都是只有多数据源或只有动态数据源,而最近的项目需要同时使用两种方式 *属性并自动配置单数据源。 动态数据源 使用动态数据源的初衷,是能在应用层做到读写分离,即在程序代码中控制不同的查询方法去连接不同的库。 除了这种方法以外,数据库中间件也是个不错的选择,它的优点是数据库集群对应用来说只暴露为单库,不需要切换数据源的代码逻辑。 我们通过自定义注解 + AOP的方式实现数据源动态切换。 : /** * 动态数据源: 通过AOP在不同数据源之间动态切换 * @return */ @Bean(name = "dynamicDS1") public

    1.7K10发布于 2021-02-25
  • 来自专栏代码人生

    Spring多数据源配置系列(一)——多数据源配置

    luo4105/article/details/77720679 资源 Git地址:https://code.csdn.net/luo4105/study_multipledatasources Spring多数据源 Spring中,可以通过AbstractRoutingDataSource来实现多数据源管理。 在Spring注册多个数据源 2. 新建类继承AbstractRoutingDataSource,并配置 3. 给TheadLocal赋值 这种技术现在已经过时,现在大部分使用数据库代理。 ,这里我们需要新建一个类继承它,并重写determineCurrentLookupKey方法,这个方法是多数据源的调用的逻辑部分,它返回一个多数据源的key,根据key找到对应的DataSource。 在spring的配置DynamicDataSource时,需要指定targetDataSources,这就是目标数据源集,是一个map,key就是通过targetDataSources获得对应的数据源

    2.4K20发布于 2019-10-30
  • 来自专栏iSharkFly

    Confluence 6 已经存在的 Confluence 安装配置一个数据源连接

    如果你希望在使用 JDBC 直接方式的应用中切换到使用数据源: 停止 Confluence. installation-directory>/confluence/WEB-INF/web.xml <home-directory>/confluence.cfg.xml 请按照上面新安装使用的步骤,同时拷贝你的驱动并且将数据源添加到正确的文件中

    63030发布于 2019-01-31
  • 来自专栏快乐阿超

    mp数据源加密

    ] url:[ mpw:5GiethoxEEWPFCVioU2KC8YpgkWJKV73Onbro3IXzMLoO73twkBNSV0fmvCSUof2Ow2LVcRT+kdi29edE7pIq7L6s2 +JG3Pcq8OVV5yHxobEGfm6+xUS08Csfw8wvHUW8xZOXtE4+NN5cUbkuH1eb/yJ5y6KHuRbQRZW2bCIWmwK9efBCfnEwE+sDQ3RO/RqONhVGMFfSEBc91byT0DKrTlh5nJ1mMCNa9BdLv4 /8fYqssf4I85nJL8pT8i0zwWxhsl52UXjBKf8qpyIaPXUqVYbgi41R57UxW1lxU6jp9Y= ] username:[ mpw:qRnWebgBej6drI

    1.1K10编辑于 2022-08-16
  • 来自专栏java编程那点事

    Hive数据源实战

    org.apache.spark.sql.DataFrame; import org.apache.spark.sql.Row; import org.apache.spark.sql.hive.HiveContext; /** * Hive数据源

    99520编辑于 2023-02-25
  • 来自专栏java编程那点事

    JDBC数据源实战

    org.apache.spark.sql.types.StructField; import org.apache.spark.sql.types.StructType; import scala.Tuple2; /** * JDBC数据源 JavaSparkContext sc = new JavaSparkContext(conf); SQLContext sqlContext = new SQLContext(sc); ​​// 总结一下 ​​// jdbc数据源

    64910编辑于 2023-02-25
领券