Kevin
Kevin
> ```js > var a = ['A1','A2','B1','B2','C1','C2','D1','D2'] > var b = ['A','B','C','D'] > // 对需要排序的数字和位置的临时存储 > var mapped = a.concat(b).map(function(el, i) { > return { index: i, value: /\D$/.test(el) ?...
> > ```js > > for (var i = 0; i< 10; i++){ > > setTimeout((i) => { > > console.log(i); > > }, 1000,i) > > } > >...
自己记录一下: fis server start --root ./output -- fis服务器启动指定当前目录下 output 目录为fis服务器文件目录 fis release -d ./output -- fis release 时, 指定产出目录 output fis server open -- 打开当前 fis 服务器的目录
> > start rename file [hdfs://worker1:8020/user/hive/warehouse/mytest.db/test1__52277896_738f_453d_af16_171b2928b259\test__b4634892_0409_44d6_896d_766ad933c3b0] > > INFO HdfsWriter$Job - start delete tmp dir [hdfs://worker1:8020/user/hive/warehouse/mytest.db] > > 注意到了吗?如果是Windows环境,最后是反斜杠,然后删除的就是hive库的所有表数据了 > > 链接:https://pan.baidu.com/s/1yDMnuXnn0Y7qH6cGf4M_xA 提取码:ssup,这是dataX全量包,已经修复并验证过这个场景,可以使用 使用你提供的datax后,出现了新的错误:  上传后的文件名多出了.gz后缀,导致后续操作出现如下错误: 
上面所提到的包,是可以使用的,但是在job.json中不能指定属性:"compress": "GZIP" 否则上传至hdfs的文件名会多出一个.gz的后缀
> windows 下需要作如下处理: --- windows 下 xargs 的简单批处理实现 https://github.com/DoctorLai/BatchUtils/blob/master/xargs.cmd --- Windows命令-文件操作-删除文件-del https://blog.csdn.net/pwp032984/article/details/125454858 --- datax自检报错 /datax/plugin/reader/._drdsreader/plugin.json]不存在 https://blog.csdn.net/young_0609/article/details/125626419 > find ./* -type f -name ".*er" | xargs rm -rf > dir /b...