代码编织梦想

dataworks api:调取 mc 项目下所有表单_dataworks api限额-爱代码爱编程

文章目录 前言Dataworks API 文档解读GetMetaDBTableList 接口文档 API 调试在线调试本地调试运行环境账密问题请求数据进一步处理 小结 前言 最

实时数仓-爱代码爱编程

本文是向大家介绍Hologres是一款实时HSAP产品,隶属阿里自研大数据品牌MaxCompute,兼容 PostgreSQL 生态、支持MaxCompute数据直接查询,支持实时写入实时查询,实时离线联邦分析,低成本、高时效、快速构筑企业实时数据仓库(Real-Time Data Warehouse)。 1. HSAP理念与产品 首先

hive、mysql、oracle内建函数对照表-爱代码爱编程

Hive、MySQL、Oracle内建函数对照表 1、背景2、Hive、MySQL、Oracle内建函数对照表 1、背景 Hive自身预置了许多函数,可以满足大部分业务场景的数

odps #maxcompute数据开发中几个常见的异常及解决方案_invalid token '', expect 'semicolon-爱代码爱编程

异常1:分区表不允许全表扫描,必须指定分区值 FAILED: ODPS-0130071:[0,0] Semantic analysis exception - physical plan generation failed

java集成maxcomputer,下载超过1w条数据并生成excel_maxcomputer工具类java-爱代码爱编程

问题:由于经常要从maxcomputer上导出数据,但是平台每次最多只能导出1W条数据 解决方案: 一.首先是maxcomputer的各种配置,然后将引用相关的pom <dependency> <groupId>cn.hutool</groupId> <artifactId>hutool

excel打开utf-爱代码爱编程

Excel乱码解决 场景方法1:数据导入方法2:指定格式导出问题产生的原因 场景 在阿里云数仓用tunnel download导出来的CSV文件编码格式是UTF-8的,用Excel打开时就会出现乱码

阿里风控大脑关于大数据应用的探索与实践_阿里仿真灰度变更-爱代码爱编程

以下内容根据演讲视频以及PPT整理而成。本次分享主要围绕以下三个方面: 一、阿里风控大脑整体介绍二、近线引擎三、离线引擎一、阿里风控大脑整体介绍1. 阿里风控大脑是什么? 阿里的风控主要分为两大块。一块是金融领域,主要业务是支付宝,另一块是非金融领域,如新零售、高德、大文娱等,我们负责的主要是非金融领域。阿里风控大脑的含义较为丰富,可以有不同的解读,但基

sql优化-爱代码爱编程

Join语句中Where条件的位置 当两个表进行Join操作时,主表的Where限制可以写在最后,但从表分区限制条件不要写在Where条件中,建议写在ON条件或者子查询中。主表的分区限制条件可以写在Where条件中(最好先用

基于多表增量同步的拉链表实现-爱代码爱编程

目录 前言(屁话): 方法实现: 利用with关键字: 提取公因式: 提取公倍式: 多级full join数据: 拆分任务: 尾声: 前言(屁话):         其实一开始我是在做拉链表时遇到了一个难点,就是当你的增量数据如果要拿到最新数据的话,就得进行一个多表的全表扫描,然后进行排序。当时一个60w条用户的SQL任务,居然

maxcompute实践之路(二) -爱代码爱编程

一. 阿里云MaxCompute使用操作流程 官网链接: https://help.aliyun.com/document_detail/27803.html?spm=a2c4g.11186623.6.593.788e7b

maxcompute 表数据恢复_maxcompute 数据回滚-爱代码爱编程

背景:         因误操作清空表 MaxCompute提供数据备份与恢复功能,系统会自动备份数据的历史版本(例如被删除或修改前的数据)并保留一定时间,您可以对保留周期内的数据进行快速恢复,避免因误操作丢失数据。 备份与恢复功能具备以下特点: 默认开启,不需要手动开通 该功能不依赖外部存储,系统默认为所有MaxCompute项目开放的数据保

阿里云maxcompute(odps)如何使用sql同步数据(sqltask模式)-爱代码爱编程

ODPS默认都是通过TableTunnel来获取数据,支持分区、续传等。但TableTunnel只支持单表,有时需要联表过滤数据就不能支持了。 官方提供了SQLTask模式来进行一些扩展。 思路 ODPS提供了两种方式

dataworks 下载表数据_dataworks下载10000条数据-爱代码爱编程

目录 邮件推送csv格式文件 邮件推送xlsx文件 背景:dataworks 下载只能下载10000条数据,如果表大小超出大小,需要limit 几次,或者导出到数据库,再从数据库中进行下载。 pyodps 可以通过python代码的方式操作表,这样就可以将表数据下载到文件,之后将文件通过邮件的方式发送给自己(这里还可以用来所pyodps数据推

maxcompute实践之路(三) -爱代码爱编程

一. jdbc方式对接maxcompute 创建完成项目后,创建以下类,根据注释,调好对应参数即可 import java.sql.Connection; import java.sql.DriverManager; i

国内某头部跨境电商公司数仓重构之路 2021-爱代码爱编程

文章目录 一、从通信行业到跨境电商二、重构之前的数仓现状三、数仓重构之路总结 一、从通信行业到跨境电商 年初换工作到现在也有小半年了,接手了一个跨境电商公司的数仓重构项目,在通信行业8年的工作

基于maxcompute的热门话题分析笔记-爱代码爱编程

数据分析流程六步法 数据集成 数据预处理 数据标准化 统一数据标准 数据清洗 清洗脏数据 数据规约 减少数据样本数量 数据加载 再次保存 数据挖掘

【无标题】当天数据为空,则取最近一天有值的数据为当天的值-爱代码爱编程

工作日正在干活,突然微信里一前同事发来消息,说是有一个技术问题请教一下。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/a3586cf82818481797c11fecbf1f5e

阿里云大数据实战记录8:拆开 json 的每一个元素,一行一个-爱代码爱编程

目录 一、前言二、目标介绍三、使用 pgsql 实现3.1 拆分 content 字段3.2 拆分 level 字段3.3 拼接两个拆分结果 四、使用 ODPS SQL 实现4.1 拆分 content

max compute 操作记录-爱代码爱编程

编译 max compute-spark git clone https://github.com/aliyun/MaxCompute-Spark cd spark-3.x mvn clean package -Dskip

spark读取maxcomputer表数据写入redis-爱代码爱编程

1.idea中新建maven项目,在pom文件中添加依赖 <?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apach