大数据
未读
Hadoop和Spark的联系
一、Hadoop 到 Spark 的变化 Spark 运算比 Hadoop 的 MapReduce 框架快的原因是因为 Hadoop 在一次 MapReduce 运算之后,会将数据的运算结果从内存写入到磁盘中,第二次 Mapredue 运算时在从磁盘中读取数据,所以其瓶颈在2次运算间的多余 IO 消
大数据
未读
Flink中的多事件Join
流式计算中的 2 个问题: 流式数据到达计算引擎的时间不一定:比如 A 流的数据先到了,A 流不知道 B 流对应同 key 的数据什么时候到,没法关联(数据质量问题) 流式数据不知何时、下发怎样的数据: A 流的数据到达后,如果 B 流的数据永远不到,那么 A 流的数据在什么时候以及是否要填充一个
晋级之路-数据结构·算法
未读
字符串的最长公共前缀
需求:编写一个函数来查找字符串数组中的最长公共前缀。如果不存在公共前缀,返回空字符串。 示例 1: 输入: ["flower","flow","flight"] 输出: "fl" 示例 2: 输入: ["dog","racecar","car"] 输出: "" 一、实现思路 获取第一个index的字
晋级之路-数据结构·算法
未读
两两交换链表节点(链表相邻节点交换)
需求:现在输入一个链表,1->2->3->4,对其相邻两个节点进行交换后得到新链表:2->1->4->3,请给出具体的实现。 一、实现思路 创建一个辅助的头节点,这样可以统一处理头节点和其他节点的交换逻辑。 使用两个指针,一个指向当前要交换的两个节点的前一个节点(prev),另一个指向当前要交换的第
大数据
未读
hive基础-知识必备
1、Hive中Map和Reduce Map阶段: 1.对文件进行逻辑切片split,默认大小为hdfs块大小,每一块对应一个mapTask; 2.对切片中的数据按行读取,解析返回<K,V>形式,key为每一行的偏移量,value为每一行的数据;
大数据
未读
Spark基础-基础必备
1、Spark宽窄依赖 窄依赖(Narrow Dependency): 指父RDD的每个分区只被子RDD的一个分区所使用。例如map、filter等这些算子的一个RDD,对它的父RDD只有简单的一对一的关系,RDD的每个partition仅仅依赖于父RDD 中的一个partition,父RDD和子R
大数据
未读
Hadoop基础-知识必备
1、Hadoop之MapReduce 1.1 Map阶段 对文件进行逻辑切片split,默认大小为hdfs块大小,每一块对应一个mapTask; 对切片中的数据按行读取,解析返回<K,V>形式,key为每一行的偏移量,value为每一行的数据; <