我是flask的新手,我正在使用下面的flask cookiecutter来开始一个快速原型。该项目的主要思想是从hive集群收集数据,并使用flask将其推送到最终用户。
虽然我能够使用pyhive连接器成功地将flask连接到hive服务器,但我遇到了一个奇怪的问题,这与我试图查询超过50个项目的select limit有关。
在我的例子中,我只构建了Hive类,类似于pyhive的flask扩展开发,类似的演示:
from pyhive import hive
from flask import current_app
# Find the stack on which we want to store the database connection.
# Starting with Flask 0.9, the _app_ctx_stack is the correct one,
# before that we need to use the _request_ctx_stack.
try:
from flask import _app_ctx_stack as stack
except ImportError:
from flask import _request_ctx_stack as stack
class Hive(object):
def __init__(self, app=None):
self.app = app
if app is not None:
self.init_app(app)
def init_app(self, app):
# Use the newstyle teardown_appcontext if it's available,
# otherwise fall back to the request context
if hasattr(app, 'teardown_appcontext'):
app.teardown_appcontext(self.teardown)
else:
app.teardown_request(self.teardown)
def connect(self):
return hive.connect(current_app.config['HIVE_DATABASE_URI'], database="orc")
def teardown(self, exception):
ctx = stack.top
if hasattr(ctx, 'hive_db'):
ctx.hive_db.close()
return None
@property
def connection(self):
ctx = stack.top
if ctx is not None:
if not hasattr(ctx, 'hive_db'):
ctx.hive_db = self.connect()
return ctx.hive_db并创建了一个终结点以从配置单元加载数据:
@blueprint.route('/hive/<limit>')
def connect_to_hive(limit):
cur = hive.connection.cursor()
query = "select * from part_raw where year=2018 LIMIT {0}".format(limit)
cur.execute(query)
res = cur.fetchall()
return jsonify(data=res)在第一次运行时,如果我试图加载限制为50个项目的东西,一切都很好,但一旦我增加,它就会保持在没有加载的状态。然而,当我使用jupyter笔记本加载数据时,它工作得很好,这就是为什么我怀疑我的flask代码中可能遗漏了什么。
发布于 2018-10-17 14:30:15
问题是库版本问题,通过在我的需求中添加以下内容来解决此问题:
# Hive with needed dependencies
sasl==0.2.1
thrift==0.11.0
thrift-sasl==0.3.0
PyHive==0.6.1旧版本如下:
sasl>=0.2.1
thrift>=0.10.0
#thrift_sasl>=0.1.0
git+https://github.com/cloudera/thrift_sasl # Using master branch in order to get Python 3 SASL patches
PyHive==0.6.1正如pyhive项目中的开发需求文件所述。
https://stackoverflow.com/questions/52838185
复制相似问题