这是一个创建于 696 天前的主题,其中的信息可能已经有所发展或是发生改变。
目前的需求是将现有数据信息(位于 aliyun mysql rds )放进 kylin 进行分析。
试用了下阿里云的 数据总线 datahub 和 开源大数据 E-MapReduce 和 数据湖 DLF , 也没有对应的 hive 信息。
之前试过 sqoop 将数据迁移到本地 hive ,写起来很麻烦,还需要将类型转换成 hive 特有的类型写好语法。
想问下有经验的彦祖们,如何实现这块。kylin 安装的话依赖 hadoop hive 环境,感觉得同一个环境部署。
假如在阿里云上面将数据迁移成到 hive ( E-MapReduce 那里的集群内的实例),是不是得在这个集群内的实例部署 kylin 。
希望能给个思路。感觉各位彦祖。
|
|
1
shenqi 2023-02-13 11:02:13 +08:00
暂时还是使用 sqoop 临时将数据全量弄到 hive 来测试。 后续估计还是 sqoop 全量 + binlog 和消费器做实时。
|