Spark on Phoenix 4.x Connector:如何在Spark侧设置Phoenix参数

  • 时间:
  • 浏览:2
  • 来源:神彩排列三_彩神排列三官方

首次揭秘|为6.4亿人次出行提供无线网络的技术架构

在Spark侧设置Phoenix的参数常见的有如下:

X-Pack Spark对接阿里云日志服务LogHub

使用spark分析云HBase的数据

本文为云栖社区原创内容,未经允许不得转载,如需转载请发送邮件至yqeditor@list.alibaba-inc.com;因为您发现本社区含晒 涉嫌抄袭的内容,欢迎发送邮件至:yqgroup@service.aliyun.com 进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容。

【精彩直播+最全资料下载】阿里云栖开发者沙龙 - BigData NoSQL Meetup(上海站)业内大咖齐聚,各大技术社区支持,与你畅聊 BigData NoSQL

Spark on HBase Connector:怎样才能在Spark侧设置HBase参数

X-Pack Spark归档POLARDB数据做分析

BigData NoSQL —— ApsaraDB HBase数据存储与分析平台概览

下拉加载更多

Hadoop学习路径

X-Pack Spark也能使用Spark on Phoenix 4.x Connector直接对接Phoenix数据库,读取Phoenix数据表数据。有时在读取Phoenix时也能 设置Phoenix的一些参数,之类Phoenix为了保障数据库的稳定性,默认开了索引含晒 ,即查询Phoebe表也能 要带上索引因为主键字段作为过滤条件。此时Spark作为查询Phoenix数据库的客户端也能 有传递参数的能力。本文就列举了Spark侧传递Phoenix参数的土办法。

注意:本文的案例以X-Pack Spark和HBase SQL(Phoenix) 4.x作为背景。

BigData NoSQL:ApsaraDB HBase数据存储与分析平台概览

开源SQL-on-Hadoop系统一览

阿里巴巴瑾谦/沐远:云HBaseSQL及分析——Phoenix&Spark

云HBase X-Pack处理传统数据仓库瓶颈,赋能客户计算分析业务

BDS-HBase集群之间数据迁移同步的利器

Apache版Phoenix的安装(图文详解)

阿里巴巴瑾谦/沐远:云HBaseSQL及分析Phoenix&Spark