朱磊的博客

记录学习过程,写写工作日常

Linux 指令之安装软件

在 Linux 上安装软件应该去官网下载比较好,比如去 JDK 的官网下载 JDK ,会给出这样的下载列表。 对于 Linux 系统来说有三个安装包可以下载,格式分别为 rpm 和 deb 和 tar.gz 。tar.gz 是安装文件的压缩包,rpm 和 deb 分别是 CentOS 体系的 L...

2019-07-28 16:25:39

阅读数 42

评论数 0

Linux 指令之用户和密码

1,修改密码的指令为:passwd # passwd Changing password for user root. New password: 按照这个命令可以输入新密码。 2,创建用户的指令为:useradd useradd stone 执行这个指令,一个用户就会被创建了。接下来可以...

2019-07-28 16:23:57

阅读数 46

评论数 0

hexo 博客迁移

今天把 mac 上的 hexo 博客迁移到 win 电脑上。 1,安装 git; 2,安装 Node.js; 3,打开 git bash 客户端,输入 npm install hexo-cli -g ,开始安装 hexo; 4,在 win 电脑上创建你要存放博客项目的文件夹,比如我是放在 D 盘的...

2019-07-26 16:36:59

阅读数 29

评论数 0

JVM 堆内存模型与 GC 策略

Java 中堆内存是 JVM 管理内存中最大的一块内存,同时又是 GC 管理的重要区域。 Java 堆内存主要分成两个区域: 1,年轻代。年轻代内部又分成了两个区,一个是 Eden 区,一个是 Survivor 区。Survivor 区又划分成两块,一块是 from 区,一块是 to 区; 2,老...

2019-07-12 14:49:38

阅读数 162

评论数 1

Spark 内存管理详解(下):内存管理

本文转自:Spark内存管理详解(下)——内存管理 本文最初由IBM developerWorks中国网站发表,其链接为Apache Spark内存管理详解 在这里,正文内容分为上下两篇来阐述,这是下篇,上一篇请移步博客列表的上一篇文章。 Spark内存管理详解(上)——内存分配 1. 堆内和...

2019-07-10 14:20:54

阅读数 229

评论数 0

Spark 内存管理详解(上):内存分配

本文转自:Spark 内存管理详解(上)——内存分配 Spark作为一个基于内存的分布式计算引擎,其内存管理模块在整个系统中占据着非常重要的角色。理解Spark内存管理的基本原理,有助于更好地开发Spark应用程序和进行性能调优。本文旨在梳理出Spark内存管理的脉络,抛砖引玉,引出读者对这个话题...

2019-07-10 14:20:03

阅读数 220

评论数 0

Spark 源码分析(九): Task 启动

前面已经分析到了 DAGScheduler 对 stage 划分,并对 Task 的最佳位置进行计算之后,通过调用 taskScheduler 的 submitTasks 方法,将每个 stage 的 taskSet 进行提交。 在 taskScheduler 的 submitTasks 方法中会...

2019-07-08 17:01:07

阅读数 168

评论数 0

Spark 源码分析(八):DAGScheduler 源码分析2(task 最佳位置计算)

前面一篇文章已经讲了 DAGScheduler 中的 stage 划分算法。 实际上就是每当执行到 RDD 的 action 算子时会去调用 DAGScheduler 的 handleJobSubmitted 方法,这个方法内部会根据当前的 RDD 创建一个 ResultStage,然后根据这个 ...

2019-07-03 23:40:07

阅读数 286

评论数 0

Spark 源码分析(七): DAGScheduler 源码分析1(stage 划分算法)

前面几篇文章已经说清楚了从 spark 任务提交到 driver 启动,然后执行 main 方法,初始化 SparkContext 对象。 在初始化 SparkContext 对象的过程中创建了两个重要组件: 一个是 TaskScheduler(实际上是他的实现类 TaskSchedulerImp...

2019-07-03 16:36:22

阅读数 511

评论数 0

Spark 源码分析(六): Executor 向 driver 进行注册

前一篇文章介绍了 Executor 进程的启动,最后启动的是 CoarseGrainedExecutorBackend,执行启动命令后会执行它的 main 方法,启动 CoarseGrainedExecutorBackend 进程。 CoarseGrainedExecutorBackend 进程是...

2019-07-02 18:24:32

阅读数 280

评论数 0

Spark 源码分析(五): Executor 启动

上一篇已经将 Application 注册到了 master 上了,在 master 收到注册消息后会进行一系列操作,最后调用 schedule 方法。 这个 schedule 方法会去做两件事,一件事是给等待调度的 driver 分配资源,另一件事是给等待调度的 application 去分配资...

2019-07-02 17:39:21

阅读数 295

评论数 0

Spark 源码分析(四): Application 的注册

在前面一篇文章中分析到了 SparkContext 中的 TaskScheduler 创建及启动。 在 StandaloneSchedulerBackend start 代码里除了创建了一个 DriverEndpoint 用于 standalone 模式下用来和 Executor 通信之外还会创...

2019-07-02 16:02:57

阅读数 232

评论数 0

Spark 源码分析(三): SparkContext 初始化之 TaskScheduler 创建与启动

前面已经分析到了 driver 进程成功在某台 worker 上启动了,下面就开始执行我们写的那些代码了。以一个 wordcount 程序为例,代码如下: val conf = new SparkConf() .setAppName("WordCount") ...

2019-07-02 12:02:01

阅读数 216

评论数 0

Spark 源码分析(二): Driver 注册及启动

上一篇文章已经已经执行到 Client 向 masterEndpoint 发送了 RequestSubmitDriver 信息,下面就看看 master 怎么注册 driver 信息,并且怎么让 worker 去启动 driver 的。 一,org.apache.spark.deploy.mast...

2019-07-01 23:16:15

阅读数 212

评论数 0

Spark 源码分析(一):Spark Submit 任务提交

研究 Spark 内部是怎么运行的,怎么将 Spark 的任务从开始运行到结束的,先从 spark-submit 这个 shell 脚本提交用户程序开始。 我们一般提交 Spark 任务时,都会写一个如下的脚本,里面指定 spark-submit 脚本的位置,配置好一些参数,然后运行: ./bin...

2019-07-01 17:17:09

阅读数 238

评论数 0

Spark 中的 RPC

Spark 是一个 通用的分布式计算系统,既然是分布式的,必然存在很多节点之间的通信,那么 Spark 不同组件之间就会通过 RPC(Remote Procedure Call)进行点对点通信。 Spark 的 RPC 主要在两个模块中: 1,spark-core 中,主要承载了更好的封装 ser...

2019-07-01 11:49:43

阅读数 191

评论数 0

Spark 的一些名词术语

摘抄官网关于 Spark 中常用的一些名词术语: Term Meaning Application User program built on Spark. Consists of a driver program and executors on the cluster. A...

2019-06-28 14:47:19

阅读数 217

评论数 0

java 为什么要重写 hashCode 和 equals 方法

转自:https://blog.csdn.net/zknxx/article/details/53862572 一、如果不被重写(原生)的 hashCode 和 equals 是什么样的? 不被重写(原生)的 hashCode 值是根据内存地址换算出来的一个值。 不被重写(原生)的 equals...

2019-06-27 16:44:11

阅读数 154

评论数 0

Spark 共享变量

翻译 Spark 共享变量部分的官方文档(Spark 2.4.3)。 通常,当传递给 Spark 操作 (如 map 或 reduce ) 的函数在远程集群节点上执行时,在函数中使用的所有外部变量都是单独拷贝的变量副本。这些变量被复制到每台机器上,对远程机器上的变量更新不会传播回驱动程序。支持通用...

2019-06-27 14:41:54

阅读数 226

评论数 0

Intellij IDEA 清除无用 import 快捷键以及自动清除设置

windows 系统下快捷键设置都在:File -> Settings -> Keymap 下面,入下图所示,设置清除无用 import 的 key 时 optimize imports,windows 下默认快捷键的值为:ctrl + alt + o : 如果要设置...

2019-06-27 08:18:24

阅读数 1340

评论数 0

提示
确定要删除当前文章?
取消 删除