V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  wudc  ›  全部回复第 1 页 / 共 2 页
回复总数  27
1  2  
@Kinnice 可以了👍,thx
2020-01-17 20:27:33 +08:00
回复了 wenhuang2003 创建的主题 职场话题 头条三面交叉面挂了。。。
我是拼到了最后定薪及 offer 审批环节,突然通知有比我更合适的,卒
2020-01-17 19:43:16 +08:00
回复了 wudc 创建的主题 职场话题 字节跳动面试心塞经历
@zimhy 是的,二面结束第二天就通知我挂了,隔了两周又把我捞起来面的
2019-06-20 23:13:46 +08:00
回复了 wudc 创建的主题 分享发现 全球购骑士黑卡,享受 100 多项特权
@zabio @edgnoz @linuslv 都别怼了,各位说的我都接受,之所以分享这个东西只是因为在这上面买我以前经常买的东西少花了些钱,分享出来给想用的人,没多大点事,都散了吧,别因为我这几句话浪费各位宝贵时间。
2019-06-19 17:48:49 +08:00
回复了 wudc 创建的主题 分享发现 全球购骑士黑卡,享受 100 多项特权
@zmlu 很多人看不上这点折扣
2019-06-19 17:48:07 +08:00
回复了 wudc 创建的主题 分享发现 全球购骑士黑卡,享受 100 多项特权
@PerFectTime 那您给些方案,怎么加油能便宜些?
2019-06-19 17:42:26 +08:00
回复了 wudc 创建的主题 分享发现 全球购骑士黑卡,享受 100 多项特权
@edgnoz 对比过几件商品,确实会便宜一些
2019-06-05 18:42:13 +08:00
回复了 yuhuan66666 创建的主题 北京 有在同仁验光的嘛?想问下该去哪?
同仁验光配镜中心
2019-06-05 18:03:01 +08:00
回复了 yuhuan66666 创建的主题 北京 有在同仁验光的嘛?想问下该去哪?
对,我去的首都医科大学附属北京同仁医院
2019-06-05 17:59:29 +08:00
回复了 beingWH 创建的主题 生活 车后挡风玻璃被砸了,心情很不好。
真佩服你的心大,我老婆现在怀孕快四个月了,从知道怀孕我就没让她动过车;
话说回来楼主是怎么知道宝宝性别的??
2019-06-05 17:47:52 +08:00
回复了 yuhuan66666 创建的主题 北京 有在同仁验光的嘛?想问下该去哪?
我是在同仁医院验光配的镜片,验光和配镜的费用是分开的
2019-01-02 14:34:59 +08:00
回复了 wudc 创建的主题 北京 家住北安河,公司在西二旗软件园,需要拼车的朋友可以关注下
@kingapi 地铁只是到西北旺或者马连洼,出来地铁还会有一定距离到公司,通常叫滴滴的话估计要 10 元左右也不便宜,另外单车早晨也很紧张,很难有空闲的
2019-01-02 13:32:11 +08:00
回复了 wudc 创建的主题 北京 家住北安河,公司在西二旗软件园,需要拼车的朋友可以关注下
@taken 非常感谢!
@tinybaby365 但是结果里面有_success
2018-04-28 17:23:29 +08:00
回复了 wudc 创建的主题 程序员 如何预测出热点新闻?
@WinMain 您有什么建议吗?
2018-04-28 17:20:40 +08:00
回复了 wudc 创建的主题 程序员 如何预测出热点新闻?
@WinMain 是,我也想到不能只根据 ctr,因为某些新闻 ctr 很高,但是不适合做推荐,比如美女图片,突发车祸,一时 ctr 高,但是不能作为热榜。
@kex0916 是我之前了解不深,听你这么说又去查了下,终于明白了,提交的时候 master 设置为 yarn-client 就可以了,谢谢。
2017-12-26 16:24:21 +08:00
回复了 wudc 创建的主题 程序员 spark 将 dataframe 写到 hdfs 为什么会如此耗时?
@zhusimaji 是在 yarn 上,executor-cores、num-executors 和 executor-memory 已经设置成当前集群所允许的最大值了,我再想想吧,还是非常感谢你的指导。
2017-12-26 13:47:55 +08:00
回复了 wudc 创建的主题 程序员 spark 将 dataframe 写到 hdfs 为什么会如此耗时?
@zhusimaji 我这程序在处理大数据量的聚合时偶尔会报 OOM 内存溢出,您对此有什么比较好的解决方法吗?
2017-12-26 13:46:32 +08:00
回复了 wudc 创建的主题 程序员 spark 将 dataframe 写到 hdfs 为什么会如此耗时?
@zhusimaji 嗯嗯,听你这么说我明白了,我分区是想防止过多结果文件的产生,现在看来有点画蛇添足了。
1  2  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   4766 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 28ms · UTC 09:56 · PVG 17:56 · LAX 02:56 · JFK 05:56
Developed with CodeLauncher
♥ Do have faith in what you're doing.